Publié le 10 février 2026 à 09h54. Plus d’une centaine d’organisations internationales lancent un appel à l’interdiction des applications d’intelligence artificielle capables de générer de fausses images intimes, une technologie en plein essor et source de chantage et d’exploitation sexuelle.
- Plus de 100 organisations internationales soutiennent un manifeste pour interdire les outils de suppression numérique de photos.
- L’agence néerlandaise Offlimits signale une augmentation de 260 % des signalements liés à des images intimes créées par IA.
- Le manifeste appelle à une législation internationale harmonisée pour lutter contre ces technologies nuisibles.
Une vaste coalition d’organisations internationales se mobilise pour obtenir l’interdiction des applications d’intelligence artificielle (IA) permettant de créer de fausses images intimes, souvent utilisées à des fins de harcèlement, d’extorsion et d’exploitation sexuelle. Parmi les signataires du manifeste figurent la municipalité d’Amsterdam et l’agence néerlandaise d’expertise en matière d’abus en ligne, Offlimits.
L’objectif principal est d’obtenir une interdiction mondiale de ces outils, qualifiés de « nudifiants », qui sont particulièrement utilisés pour manipuler des images de femmes, de jeunes filles et d’enfants. Les risques associés à cette technologie sont considérables, allant de l’exploitation sexuelle au chantage en passant par de graves conséquences psychologiques pour les victimes.
Récemment, une plateforme de médias sociaux a été au centre d’une controverse en raison de la capacité de son chatbot Grok à générer de fausses images suggestives. Cette affaire a mis en lumière les dangers potentiels de ces technologies.
Le manifeste appelle les gouvernements à adopter des lois interdisant l’utilisation, la distribution et la vente de ces outils dans un délai de deux ans. Il exhorte également les entreprises technologiques et le grand public à prendre des mesures pour contrer ces technologies nuisibles et limiter leur impact.
Robbert Hoving, directeur d’Offlimits, souligne la sophistication croissante de cette technologie.
« L’IA est désormais capable de générer des images de nus qui sont indiscernables de la réalité. Cela a exactement le même impact sur les victimes que la diffusion de véritables photos intimes. Elles ne peuvent plus dormir, ne veulent plus aller à l’école. Cela provoque une grande panique, voire des pensées suicidaires. »
Selon M. Hoving, ces images sont principalement utilisées pour faire pression sur les individus.
« Nous observons deux types de situations. Pour les jeunes filles, il s’agit de sextorsion. Elles sont ensuite menacées de voir ces fausses images diffusées si elles ne envoient pas de véritables photos ou n’acceptent pas d’actes sexuels. Les garçons sont menacés de la même manière si de l’argent n’est pas versé. »
Bien que certaines pratiques soient déjà illégales aux Pays-Bas, M. Hoving insiste sur la nécessité d’une législation internationale harmonisée.
« Si l’on interdit cela dans un seul pays, mais que cela reste autorisé ailleurs, il y aura toujours des victimes. »
Les chiffres communiqués par Offlimits témoignent de l’ampleur du problème. L’organisation a enregistré une augmentation de 260 % du nombre de signalements liés à des images intimes créées par IA au cours de l’année écoulée. Cette hausse alarmante souligne l’urgence d’une action coordonnée.
Cet appel à l’action s’adresse également aux entreprises technologiques, qui doivent s’assurer que leurs outils ne peuvent pas être détournés à des fins malveillantes. La sensibilisation du public est également cruciale.
« Nous devons collectivement reconnaître que ce type de situation est inacceptable et intégrer systématiquement ce sujet dans les programmes éducatifs des écoles. »
Le nouveau gouvernement néerlandais a annoncé son intention de se concentrer sur la sécurité numérique et envisage des mesures spécifiques contre les « deepfakes » sexuels. M. Hoving se montre optimiste quant à cette attention accrue, estimant qu’elle est essentielle pour résoudre ce problème complexe.