Publié le 26 février 2026 08:23:00. OpenAI a révélé qu’un compte ChatGPT lié à des forces de l’ordre chinoises a été utilisé pour tenter de déstabiliser le soutien envers le Premier ministre japonais et mener des opérations d’influence à grande échelle, illustrant une utilisation croissante de l’intelligence artificielle à des fins malveillantes.
OpenAI a banni un compte ChatGPT associé à un individu lié aux forces de l’ordre chinoises après avoir découvert des tentatives d’influencer l’opinion publique, notamment en ciblant le Premier ministre japonais. L’entreprise a également identifié un compte X dont l’activité était corrélée à ces opérations ainsi qu’à des attaques contre des dissidents chinois et des organisations de défense des droits de l’homme.
Selon OpenAI, l’utilisateur a non seulement cherché à nuire à Takaichi, mais a également sollicité l’aide de ChatGPT pour affiner des rapports sur des « cyberopérations spéciales », qui correspondaient à des activités détectées sur Internet. L’entreprise a déclaré :
« Les preuves disponibles suggèrent que les forces de l’ordre chinoises mettent en œuvre une stratégie… pour réprimer la dissidence et faire taire les critiques à la fois en ligne et hors ligne, dans le pays et à l’étranger. »
OpenAI
Cette campagne d’influence, décrite comme « soutenue et gourmande en ressources », s’appuie sur un ensemble de tactiques comprenant le harcèlement en ligne, la diffusion massive d’informations, l’usurpation d’identité de responsables américains et le ciblage des familles de dissidents. L’individu en question a documenté sur ChatGPT que ces « opérations spéciales » se déroulaient sur des plateformes de médias sociaux chinoises telles que Weibo et WeChat, ainsi que sur plus de 300 plateformes « étrangères ». Il a évoqué des millions de messages sur les réseaux chinois et des dizaines de milliers sur les réseaux étrangers.
OpenAI a souligné que les mises à jour de l’utilisateur révélaient une utilisation systématique de l’IA pour la surveillance, le profilage, la traduction, la création de contenu et la documentation interne. L’entreprise a publié un rapport détaillant ses efforts pour contrer ces utilisations malveillantes de son modèle.
Au-delà de ces opérations d’influence attribuées à la Chine, OpenAI a également mis en évidence des cas d’utilisation frauduleuse de l’IA, notamment des faux profils de rencontres ciblant de jeunes hommes indonésiens. Cette activité, très probablement originaire du Cambodge, correspond aux récents rapports concernant des opérations d’escroquerie criminelles menées par des ressortissants chinois dans ce pays. Des utilisateurs se sont même identifiés comme des escrocs cambodgiens en demandant des conseils fiscaux à ChatGPT, déclarant leur profession.