Publié le 2025-10-15 10:05:00. À l’approche des élections du 29 octobre, l’utilisation des intelligences artificielles (IA) comme outils d’aide à la décision soulève des questions. Si certains chatbots tendent à orienter les utilisateurs vers des partis de gauche, leur utilité réside plutôt dans l’approfondissement des programmes et la confrontation des idées.
- Les chatbots IA, interrogés sur leurs préférences politiques via des questionnaires électoraux, tendent à favoriser des partis de gauche comme D66, GroenLinks-PvdA ou Volt.
- Cette orientation pose la question de la neutralité des IA, alors même que les développeurs n’incluent pas ces informations politiques dans leurs réponses.
- Les experts appellent à la prudence face à une dépendance excessive aux IA, soulignant les risques d’informations erronées et le manque de transparence dans leurs recommandations.
Les intelligences artificielles, lorsqu’elles sont sollicitées pour répondre à des questionnaires politiques, montrent une nette inclinaison pour des formations situées dans le spectre progressiste de gauche. Que ce soit ChatGPT, le modèle chinois DeepSeek ou encore Grok, propriété d’Elon Musk, les résultats obtenus par ces chatbots se révèlent systématiquement proches des positions de D66, GroenLinks-PvdA ou Volt. Cette observation a été faite par RTL Z, qui a soumis les mêmes déclarations des questionnaires électoraux à trois reprises à ces différents outils, obtenant à chaque fois des résultats similaires. La consigne donnée aux IA était de répondre sans aucune préconisation politique explicite, une démarche qui, si elle n’a pas de sens pour déterminer un vote personnel, met en lumière un biais potentiel de ces technologies.
Les partis politiques et les experts du domaine alertent sur les dangers d’une confiance aveugle accordée aux IA pour guider le choix des électeurs. Martin Rosema, politologue et chercheur spécialisé dans le comportement électoral à l’université de Twente, met en garde : « Au début, des informations parfois erronées sont diffusées. De plus, ces robots IA manquent de transparence ; vous n’avez aucune idée de la raison pour laquelle vous recevez certains conseils, ce qui est problématique. » Il ajoute que la cohérence des réponses est également loin d’être garantie, une même question posée à plusieurs reprises pouvant générer des réponses divergentes.
Malgré ces réserves, les chatbots ne sont pas pour autant dénués d’intérêt dans le processus de décision électorale. Martin Rosema nuance son propos : « Je ne demanderais pas à un chatbot pour qui je devrais voter, mais il est intéressant de voir ce que l’on peut en faire. » Il suggère de les utiliser pour approfondir certaines thématiques ou pour confronter différents points de vue, un aspect souvent négligé par les outils d’aide au vote traditionnels. « On aimerait souvent en savoir plus sur les arguments pour et contre une déclaration, ou obtenir des éclaircissements sur la signification exacte d’un terme », précise le chercheur.
Au-delà de la fonction conversationnelle des chatbots, l’IA trouve d’autres applications pertinentes à l’approche des élections, notamment dans la synthèse de programmes électoraux. Martin Rosema souligne : « L’IA excelle dans ce domaine et présente un risque d’erreur nettement réduit. » C’est précisément le créneau développé par l’Open Politics Foundation sur son site openverkiezingen.nl. Floris Hoogenboom, président de l’organisation, explique qu’il s’agit d’un « guide de vote inversé ». Au lieu d’évaluer des propositions, le site invite l’utilisateur à réfléchir aux déclarations et présente ensuite ce que les différents partis ont inscrit à ce sujet dans leurs programmes. L’IA est ici mise à profit pour générer ces synthèses.
La fiabilité de ce système est rigoureusement testée. « Nous avons vérifié manuellement un millier de déclarations et contrôlé si les réponses correspondaient aux programmes électoraux », indique Floris Hoogenboom, précisant que la fiabilité dépasse les 99 %. Néanmoins, le site affiche un avertissement : « Les résumés générés par l’IA peuvent contenir des erreurs ». Cette mention renforce la nécessité d’une approche prudente face aux outils d’IA, comme le rappelle Martin Rosema : « En tant qu’utilisateur, vous avez également une part de responsabilité si vous acceptez tout comme étant vrai. Je ne le recommanderais pas. Mais cela peut vous aider à trouver des informations pertinentes. »