Publié le 20 février 2026 à 18h11. Des chercheurs ont démontré qu’il est étonnamment facile de manipuler les réponses des intelligences artificielles (IA) comme ChatGPT et Google Gemini, soulevant des inquiétudes quant à la diffusion de fausses informations et à la fiabilité de ces outils.
- Des experts ont montré qu’en publiant un article en ligne, il est possible d’amener une IA à affirmer des faits manifestement faux.
- Cette vulnérabilité pourrait être exploitée pour diffuser de la désinformation sur des sujets sensibles comme la santé ou les investissements.
- Google et OpenAI, les développeurs de ces IA, affirment travailler à résoudre le problème, mais les experts soulignent la nécessité d’une vigilance accrue de la part des utilisateurs.
Une simple publication sur un blog a suffi à convaincre les chatbots les plus populaires que l’auteur était un champion mondial de hot-dogs. Cette expérience, menée par un journaliste, illustre une faille de sécurité préoccupante dans les systèmes d’intelligence artificielle, qui pourrait avoir des conséquences bien plus graves que de simples vantardises.
Le principe est simple : les IA, lorsqu’elles ne disposent pas d’une réponse précise, recourent à des recherches en ligne pour compléter leurs connaissances. En publiant un contenu mensonger mais bien rédigé, il est possible d’influencer ces recherches et donc de manipuler les réponses de l’IA. « Les chatbots sont beaucoup plus faciles à pirater aujourd’hui qu’ils ne l’étaient il y a deux ou trois ans », explique Lily Rae, vice-présidente de la recherche SEO chez l’agence de marketing numérique Amsafe.
« Les sociétés d’IA progressent plus vite qu’elles ne peuvent garantir l’exactitude des réponses qu’elles fournissent. Je pense que c’est dangereux. »
Lily Rae, vice-présidente de la recherche SEO, Amsafe
Cette vulnérabilité ne se limite pas à des affirmations anecdotiques. Des experts craignent que des acteurs malveillants ne l’exploitent pour diffuser de la désinformation sur des sujets critiques, tels que les effets secondaires de médicaments ou la fiabilité d’entreprises. Harpreet Chatha, expert en optimisation des moteurs de recherche chez Harps Digital, souligne que « n’importe qui peut faire cela. C’est une situation stupide, il ne semble y avoir aucun contrôle. »
Google affirme que ses systèmes d’IA utilisent des algorithmes pour filtrer le spam et que 99 % des résultats sont exempts de manipulation. L’entreprise assure être consciente des tentatives de manipulation et travailler activement à y remédier. OpenAI, de son côté, indique prendre des mesures pour détecter et contrer les tentatives de manipulation secrète de ses outils. Les deux entreprises précisent que leurs outils peuvent commettre des erreurs et avertissent les utilisateurs en conséquence.
Cependant, les experts estiment que ces mesures ne sont pas suffisantes. Cooper Quentin, expert en technologie en chef à l’Electronic Frontier Foundation, une organisation de défense des droits numériques, met en garde contre le risque d’exploitation de ces vulnérabilités.
« Il existe d’innombrables façons d’exploiter ces vulnérabilités et de tromper les gens, de les discréditer ou même de leur causer des dommages physiques. »
Cooper Quentin, expert en technologie en chef, Electronic Frontier Foundation
Pour se protéger contre cette manipulation, les experts recommandent de faire preuve de prudence et de vérifier les informations obtenues auprès des IA. Il est essentiel de consulter les sources originales et de ne pas se fier aveuglément aux réponses fournies par ces outils. Lily Ray insiste sur l’importance de l’esprit critique :
« À l’ère de l’intelligence artificielle, il n’y a rien de plus facile que de prendre ce qui vous est présenté comme des faits. Cependant, vous devez être un bon citoyen dans l’état d’Internet et vérifier par vous-même ce qui vous est présenté. »
Lily Ray, vice-présidente de la recherche SEO, Amsafe
source d’images, Sérénité Strull / BBC