Publié le 8 février 2024 12h46. Une nouvelle mode sur les réseaux sociaux invite les utilisateurs à générer des caricatures personnalisées à l’aide d’intelligence artificielle, soulevant des questions sur la protection des données personnelles et la confidentialité.
- L’IA, notamment ChatGPT et Google Gemini, permet de créer des caricatures à partir d’un selfie et d’informations personnelles.
- Cette tendance s’inscrit dans la continuité d’autres modes basées sur l’IA, comme les portraits façon Ghibli.
- Des experts mettent en garde contre le partage excessif de données personnelles avec ces outils, rappelant que les services gratuits ont un coût en termes de confidentialité.
L’intelligence artificielle continue de fasciner et de se réinventer. Dernièrement, une nouvelle tendance émerge, particulièrement populaire auprès des utilisateurs de plateformes comme ChatGPT : la création de caricatures personnalisées. En soumettant une simple requête – « Créez une caricature de moi et de mon travail basée sur tout ce que vous savez sur moi » – et en téléchargeant un selfie, les utilisateurs peuvent obtenir une image qui les représente de manière humoristique et détaillée.
Cette fonctionnalité est disponible non seulement sur ChatGPT, mais également sur d’autres outils d’IA générative tels que Google Gemini. Le processus est d’autant plus fluide pour les utilisateurs ayant déjà partagé des informations avec ChatGPT. Dans le cas contraire, l’IA demande des précisions sur les centres d’intérêt, la profession, voire des aspects de la vie personnelle et familiale.
Les caricatures générées ressemblent souvent aux œuvres réalisées par les artistes de rue dans les lieux touristiques, avec des traits exagérés et une représentation de l’individu dans son environnement professionnel ou lors de ses loisirs. Elles sont également riches en détails, faisant référence à des éléments de la vie quotidienne, comme les animaux de compagnie, les plats préférés ou le cadre de vie.
Cette nouvelle mode s’inscrit dans la lignée d’autres tendances virales basées sur l’IA, à l’instar des portraits d’antan façon Ghibli, qui ont vu influenceurs et professionnels se transformer en personnages d’anime. OpenAI, la société à l’origine de ChatGPT, encourage activement l’utilisation globale de l’IA dans la vie quotidienne.
Cependant, cette popularité croissante de l’IA soulève des inquiétudes en matière de confidentialité. En 2023, des experts avaient déjà alerté le Straits Times sur les risques liés au partage de données avec des fournisseurs externes, soulignant les dangers potentiels en termes de sécurité et de vie privée. Ils avaient également mis en évidence la capacité des robots IA à encourager la dépendance émotionnelle tout en érodant discrètement la conscience de soi.
Jessica Eaves Mathews, avocate spécialisée dans l’IA, le droit des marques et la protection des données, met en garde contre cette nouvelle tendance.
« Dans un monde où les données sont monnaie courante – où les entreprises ont bâti des empires en collectant, stockant et monétisant les détails les plus intimes de nos vies – il est naïf de traiter cela comme un projet artistique inoffensif. »
Jessica Eaves Mathews, avocate
Selon elle, en transmettant leurs informations personnelles à ChatGPT, les utilisateurs s’exposent à être plus facilement identifiables, traçables et ciblés. OpenAI, en tant qu’entreprise privée, a un modèle économique basé sur la collecte, le traitement et l’exploitation de données à grande échelle. Mathews exhorte donc les utilisateurs à la prudence et à protéger leurs données personnelles, rappelant que les services gratuits ne sont jamais vraiment gratuits.
« Vous payez avec information, attention et participation. Vous contribuez au raffinement et à l’expansion d’un système conçu pour devenir plus puissant, plus intégré et plus indispensable. »
Jessica Eaves Mathews, avocate