Home Sciences et technologies Comment l’IA empoisonne notre rapport à l’info

Comment l’IA empoisonne notre rapport à l’info

0 comments 26 views

L’ère de la désinformation a atteint un nouveau seuil en 2026, avec des outils d’intelligence artificielle capables de générer des contenus si réalistes qu’ils trompent désormais les institutions étatiques et une part croissante de la population. La distinction entre le réel et le faux devient de plus en plus floue, menaçant la confiance dans l’information.

En janvier 2026, le New York Times a renoncé à publier une photographie fournie par la Maison Blanche, censée illustrer l’arrestation de Nicolas Maduro, « faute de pouvoir affirmer son authenticité ». Cette situation illustre une réalité alarmante : selon le quotidien, « les IA génératrices de vidéos sont désormais tellement bonnes que vous ne pouvez plus vous fier à vos yeux ». Le doute n’est plus l’apanage des citoyens ordinaires.

La diffusion de fausses informations ne se limite pas aux médias traditionnels. Le compte X de la présidence américaine a diffusé une image manipulée par IA d’une manifestante, tandis qu’Emmanuel Macron a révélé qu’un chef d’État africain avait été induit en erreur par une vidéo générée par IA annonçant un faux coup d’État en France.

Malgré ces dangers, l’adoption de l’IA générative est massive. ChatGPT compte près d’un milliard d’utilisateurs hebdomadaires, dont 20 % l’utilisent pour s’informer. En France, 28 % de la population estime que ces chatbots sont fiables pour suivre l’actualité, selon un baromètre réalisé par La Croix-Verian-La Poste.

Cette confiance est pourtant illusoire. Une étude de la BBC, menée en octobre 2025, a révélé que « 45 % des réponses fournies par les chatbots contenaient au moins une affirmation significativement trompeuse ». Thomas Renault, maître de conférences à Paris-I, explique ce paradoxe : « Il y a beaucoup de cas où ils se trompent, mais en moyenne, la qualité des réponses est plutôt bonne. »

Un autre risque majeur réside dans la possibilité de « polluer » les sources d’information. Des réseaux de désinformation peuvent manipuler les robots conversationnels en les alimentant avec de fausses informations, comme le montrent les faux sites régionaux français créés par le propagandiste John Mark Dougan. « Quand ses seules sources disponibles répètent de fausses infos… quelles réponses les IA conversationnelles vont-elles donner ? », s’inquiète Chine Labbé de Newsguard.

Les outils d’IA peinent également à s’autocontrôler. Lors de tests de détection de vidéos générées par Sora, ChatGPT a échoué dans 92,5 % des cas, et Grok dans 95 %.

Le phénomène s’étend au divertissement avec la « slopisation », c’est-à-dire l’inondation des réseaux sociaux de contenus artificiels et sensationnalistes. Nicolas Hénin, chercheur à l’université de Manchester, y voit un « émoussement des capacités cognitives » qui est « très néfaste », car cela « déstigmatise la propagation de faux ». Cette brèche est exploitée par les groupes radicaux pour diffuser leur idéologie sous une esthétique attrayante.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.