Publié le 13 février 2024 10:32:00. Une tendance virale sur les réseaux sociaux, consistant à se faire caricaturer par l’intelligence artificielle, expose potentiellement les utilisateurs à des risques de sécurité importants en divulguant des informations sensibles sur leur travail et leur entreprise.
- Plus de 2,6 millions de ces caricatures ont déjà circulé sur Instagram début février.
- Les conversations avec les modèles d’IA sont souvent enregistrées et peuvent être exploitées par des cybercriminels.
- Le manque de sensibilisation des utilisateurs aux risques liés à l’utilisation de l’IA est un facteur aggravant.
La nouvelle mode sur Instagram et TikTok consiste à se faire dessiner une caricature par une intelligence artificielle (IA) comme ChatGPT, basée sur sa profession et ce que l’IA « sait » de vous. Médecins en blouse disproportionnée, programmeurs entourés de câbles, ingénieurs munis de tournevis géants… Ces images amusantes et rapides à générer séduisent par leur aspect ludique et technologique. Pourtant, derrière cette apparente innocence se cache un danger que beaucoup ignorent.
Le principe est simple : l’utilisateur demande à l’IA de créer une caricature à partir de son métier et de toutes les informations dont elle dispose. L’image est ensuite partagée sur les réseaux sociaux, souvent en lien avec le profil personnel de l’utilisateur. Or, l’expression « tout ce qu’elle sait de vous » est loin d’être anodine. De nombreux professionnels utilisent des modèles linguistiques pour travailler, parfois depuis leurs comptes personnels, sans forcément savoir que leurs échanges sont enregistrés dans l’historique du service. Un attaquant ayant accès à ce compte pourrait ainsi consulter ces requêtes et y dénicher des informations confidentielles concernant l’entreprise, ses processus internes, des documents ou des données qui ne devraient jamais en sortir.
Ce que ces caricatures révèlent aux cybercriminels
L’ampleur du phénomène est considérable. Début février, on comptait déjà plus de 2,6 millions de ces dessins sur Instagram, dont un nombre important était lié à des profils publics et privés. Un simple défilement révèle des professionnels de secteurs variés : banque, traitement de l’eau, ressources humaines, développement de logiciels, médecine… Chaque image, aussi inoffensive qu’elle puisse paraître, constitue un indice. Elle révèle non seulement la profession, mais aussi l’utilisation quotidienne de l’IA par cette personne, suggérant qu’elle a pu saisir des informations relatives à son emploi dans le modèle.
Dès lors, le chemin pour un attaquant devient étonnamment aisé. En combinant le nom d’utilisateur, les informations du profil et les indices fournis par la caricature, il peut déduire une adresse e-mail grâce à des recherches publiques. Une fois l’adresse identifiée, il suffit d’envoyer un lien malveillant déguisé en notification de sécurité, mise à jour de service ou autre prétexte crédible. Si la victime clique sur le lien, l’attaquant peut voler ses identifiants, intercepter sa session et prendre le contrôle du compte du modèle d’IA.
Cet accès est une mine d’or. L’historique des requêtes peut contenir des fragments de documents internes, des demandes de projets, des données clients, voire des informations stratégiques. La plupart des utilisateurs l’ignorent, mais de nombreux modèles stockent les conversations pour améliorer leurs performances, et ces informations sont accessibles depuis le compte. Un attaquant pourrait les revendre, les utiliser à des fins frauduleuses ou même faire chanter la victime s’il y trouve des éléments particulièrement sensibles.
Outre le piratage de compte, d’autres risques, moins probables mais possibles, existent, tels que la manipulation des modèles par le biais d’injections de requêtes ou de techniques de « jailbreak » avancées. Ces scénarios ne sont pas courants, mais ne sont pas impossibles si le compte a déjà été compromis.
Un manque de sensibilisation préoccupant
Le problème fondamental réside dans un manque de sensibilisation. Beaucoup de gens ne réalisent pas que communiquer des données sensibles à un modèle d’IA revient à les confier à un service externe. Et encore moins savent-ils que ces informations peuvent être conservées. La tendance virale ne fait qu’ajouter une couche de visibilité supplémentaire : il existe désormais non seulement l’historique des conversations, mais aussi une image publique confirmant l’utilisation de l’IA dans un contexte professionnel.
Pour limiter les risques, les organisations doivent avoir une visibilité sur la manière dont leurs employés utilisent les outils d’IA. Il ne suffit pas de les interdire ou de les ignorer : il est nécessaire d’établir des politiques claires, d’identifier les applications non autorisées et de restreindre leur accès aux systèmes de l’entreprise. Il est également crucial de surveiller les éventuelles compromissions d’identifiants, car un accès non autorisé aux comptes professionnels aurait un impact bien plus important qu’un compte personnel utilisé pour les réseaux sociaux.
La caricature peut être amusante, certes. Mais il ne faut pas oublier que sur Internet, même la chose la plus anodine peut devenir un indice pour celui qui sait où chercher.