Home International « L’effet dissuasif » : comment la peur des applications « nudify » et des deepfakes de l’IA empêche les femmes indiennes d’accéder à Internet | Développement mondial

« L’effet dissuasif » : comment la peur des applications « nudify » et des deepfakes de l’IA empêche les femmes indiennes d’accéder à Internet | Développement mondial

0 comments 105 views

À l’ère de l’intelligence artificielle, la peur de voir son image détournée par des deepfakes paralyse de nombreuses femmes indiennes, les poussant à se retirer de la sphère publique numérique. Une nouvelle réalité qui pèse lourdement sur leur expression et leur liberté en ligne.

Alors qu’elle ambitionne de partager son travail juridique sur les réseaux sociaux, Gaatha Sarvaiya, jeune diplômée en droit à Mumbai, se retrouve confrontée à une angoisse grandissante. L’essor fulgurant des deepfakes basés sur l’IA a érodé la confiance dans la publication d’images en ligne. « La pensée surgit immédiatement : ‘OK, ce n’est peut-être pas sûr. Peut-être que les gens peuvent prendre nos photos et simplement faire des trucs avec elles’ », confie-t-elle. Cette crainte est partagée par de nombreuses autres femmes. « L’effet dissuasif est réel », confirme Rohini Lakshané, chercheuse spécialisée dans les droits de genre et la politique numérique, qui a elle aussi réduit sa présence en ligne par prudence. Pour elle, « le fait qu’ils puissent être si facilement utilisés à mauvais escient me rend extrêmement prudent. » Les conséquences de ce harcèlement en ligne sont claires : un silence forcé ou une moindre participation à la vie numérique. « La conséquence du harcèlement en ligne est de vous faire taire ou de devenir moins actif en ligne », explique Tarunima Prabhakar, co-fondatrice de Tattle, une organisation qui étudie l’impact des abus numériques en Inde.

L’Inde est devenue un laboratoire majeur pour les technologies d’IA, se positionnant comme le deuxième plus grand marché mondial pour OpenAI. Cependant, cette adoption massive a ouvert une nouvelle voie pour le harcèlement ciblant les femmes et les minorités de genre. Un rapport récent, s’appuyant sur les données de la Fondation Rati, une organisation d’aide aux victimes d’abus en ligne, révèle qu’une majorité significative de contenus générés par l’IA est utilisée à des fins malveillantes envers ces groupes. Le rapport, rédigé par la Fondation Rati et Cancan, une entreprise œuvrant à la lutte contre la désinformation sur les réseaux sociaux indiens, souligne une augmentation alarmante des outils d’IA utilisés pour créer des images ou des vidéos manipulées numériquement de femmes. Ces contenus peuvent aller de représentations nues non consenties à des images culturellement stigmatisantes dans certaines communautés indiennes, comme les démonstrations publiques d’affection.

Environ 10 % des centaines de cas signalés à la ligne d’assistance de la Fondation Rati concernent désormais ces images manipulant l’identité féminine. « L’IA facilite grandement la création de contenu réaliste », constate le rapport. Des personnalités publiques indiennes ont déjà été victimes de ces manipulations, comme la célèbre chanteuse Asha Bhosle, dont l’image et la voix ont été clonées par IA. La journaliste Rana Ayyub a également été ciblée l’année dernière par une campagne de doxing ayant mené à la diffusion d’images deepfake sexualisées d’elle sur les réseaux sociaux.

Ces affaires ont suscité un débat sociétal, poussant certaines personnalités, comme Asha Bhosle, à obtenir gain de cause légalement pour protéger leur voix et leur image. Cependant, l’impact sur les femmes ordinaires, comme Gaatha Sarvaiya, qui doutent de plus en plus de leur sécurité en ligne, reste moins abordé. « L’émotion que nous avons identifiée est la fatigue », précise Tarunima Prabhakar. « Et la conséquence de cette fatigue est aussi que vous vous éloignez complètement de ces espaces en ligne. »

Gaatha Sarvaiya et ses amies suivent de près ces cas de deepfakes, comme celui de Rana Ayyub ou de l’actrice de Bollywood Rashmika Mandanna. « Ici, c’est un peu effrayant pour les femmes », admet-elle. Désormais, elle hésite à publier sur les réseaux sociaux et a rendu son compte Instagram privé. Elle craint même que cela ne suffise pas, car les femmes peuvent être photographiées dans des lieux publics comme le métro, et ces images peuvent ensuite être retrouvées en ligne. « Ce n’est pas aussi courant qu’on pourrait le penser, mais vous ne connaissez pas votre chance, n’est-ce pas ? », s’interroge-t-elle. « Des amis d’amis sont victimes de chantage – littéralement, sur Internet. »

Rohini Lakshané, pour sa part, demande régulièrement à ne plus être photographiée lors d’événements, même lorsqu’elle est conférencière. Elle se prépare à l’éventualité qu’une vidéo ou une image la représentant, mais manipulée, fasse un jour surface. Sur les applications, elle a opté pour une illustration comme photo de profil. « On craint une utilisation abusive des images, en particulier pour les femmes qui sont présentes en public, qui ont une voix en ligne et qui prennent des positions politiques », explique-t-elle.

Le rapport de Rati détaille comment des outils d’IA tels que les applications de « nudification » ont banalisé des abus autrefois considérés comme extrêmes. Dans un cas relaté, une femme ayant soumis une photo dans le cadre d’une demande de prêt a vu celle-ci utilisée pour l’extorquer. Après son refus de payer, la photo a été numériquement modifiée avec une application de nudification et intégrée à une image pornographique. Accompagnée de son numéro de téléphone, cette image a circulé sur WhatsApp, entraînant un flot d’appels et de messages sexuellement explicites provenant d’inconnus. La victime a confié à la ligne d’assistance de Rati se sentir « honteuse et socialement marquée, comme si elle avait été ‘impliquée dans quelque chose de sale’ ».

En Inde, comme ailleurs, les deepfakes évoluent dans une zone grise juridique. Aucune loi spécifique ne les reconnaît comme une forme de préjudice distincte. Bien que le rapport de Rati cite plusieurs lois indiennes potentiellement applicables au harcèlement et à l’intimidation en ligne, les femmes doivent naviguer dans un parcours légal complexe. « Mais ce processus est très long », constate Gaatha Sarvaiya, soulignant que le système juridique indien est mal équipé pour appréhender les deepfakes liés à l’IA. « Et il y a beaucoup de formalités administratives pour en arriver là et obtenir justice pour ce qui a été fait. »

Une partie de la responsabilité incombe aux plateformes de diffusion, telles que YouTube, Meta, X, Instagram et WhatsApp. Les forces de l’ordre indiennes décrivent le processus de suppression de contenus abusifs par ces entreprises comme « opaque, gourmand en ressources, incohérent et souvent inefficace », selon un rapport d’Equality Now, une organisation de défense des droits des femmes. Bien que des entreprises comme Apple et Meta aient pris des mesures pour limiter la propagation d’applications de nudification, le rapport de Rati pointe des réactions inadéquates de ces plateformes face aux abus en ligne. WhatsApp a finalement agi dans le cas d’extorsion, mais sa réponse a été jugée « insuffisante », les images étant déjà largement diffusées. Sur Instagram, un créateur indien harcelé par un troll publiant des vidéos nues de lui n’a obtenu une réponse qu’après des « efforts soutenus », qualifiée de « tardive et inadéquate ».

Les victimes se sont souvent senties ignorées lorsqu’elles signalaient du harcèlement sur ces plateformes, les poussant à contacter la ligne d’assistance. De plus, même lorsqu’un compte diffusant du contenu abusif était supprimé, celui-ci réapparaissait souvent ailleurs, phénomène que Rati qualifie de « récidive de contenu ». « L’une des caractéristiques constantes des abus générés par l’IA est sa tendance à se multiplier. Ils sont créés facilement, largement partagés et ont tendance à refaire surface à plusieurs reprises », explique Rati. Pour remédier à cela, « il faudra beaucoup plus de transparence et un accès aux données depuis les plateformes elles-mêmes ».

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.