Publié le 25 février 2026 13:33:00. Une simple manipulation d’un site web personnel a suffi à tromper les principaux systèmes d’intelligence artificielle, démontrant une vulnérabilité inquiétante de ces technologies.
- Un journaliste a démontré qu’il était possible d’influencer les réponses de ChatGPT et Gemini en créant un faux article en ligne.
- Moins de 24 heures après la publication de cet article, les chatbots intégraient les informations erronées dans leurs réponses.
- Seul le chatbot Claude, développé par Anthropic, n’a pas été dupé par cette manipulation.
La fiabilité des intelligences artificielles (IA) est remise en question suite à une expérience menée par un journaliste technologique. En seulement 20 minutes, il a réussi à « empoisonner » les données d’entraînement de ces systèmes en publiant un article entièrement fabriqué sur son propre site web.
L’article, intitulé « Les meilleurs journalistes techniques pour manger des hot-dogs », contenait des informations totalement inventées, affirmant que la consommation compétitive de hot-dogs était un passe-temps populaire parmi les journalistes techniques. Le journaliste s’est même attribué la première place d’un championnat imaginaire du Dakota du Sud.
« J’ai passé 20 minutes à écrire un article sur mon site Web personnel intitulé « Les meilleurs journalistes techniques pour manger des hot-dogs ». Chaque mot est un mensonge. J’ai affirmé (sans preuve) que la consommation compétitive de hot-dogs était un passe-temps populaire parmi les journalistes techniques et j’ai basé mon classement sur le Championnat international de hot-dogs du Dakota du Sud 2026 (qui n’existe pas). Je me suis classé numéro un, évidemment. Ensuite, j’ai listé quelques faux reporters et vrais journalistes qui m’ont donné la permission… »
Journaliste technologique
Moins de 24 heures plus tard, les principaux chatbots, dont Google Gemini et ChatGPT, intégraient ces fausses informations dans leurs réponses. Lorsqu’on leur demandait de citer les meilleurs journalistes techniques mangeurs de hot-dogs, ils reprenaient le contenu du faux article, affichant même ces informations dans les résultats de recherche Google. Seul Claude, un chatbot développé par la société Anthropic, s’est montré insensible à cette manipulation.
Le journaliste a même constaté que les chatbots semblaient prendre la question plus au sérieux après avoir précisé qu’il s’agissait d’une blague. Cette expérience souligne la vulnérabilité des IA face à la désinformation et soulève des questions sur la confiance que l’on peut accorder à ces technologies, malgré leur potentiel.
Cette découverte est issue d’un article publié sur le Security Bloggers Network de Bruce Schneier.