Instagram renforce la sécurité des adolescents face aux IA. Face aux inquiétudes croissantes concernant l’impact des intelligences artificielles sur les jeunes utilisateurs, la plateforme de Meta s’apprête à dévoiler de nouveaux outils de contrôle parental. Ces mesures visent à offrir aux parents une supervision accrue sur les interactions de leurs enfants avec les personnages IA.
Dans un article de blog, Meta a annoncé que les parents auront la possibilité de bloquer entièrement l’accès de leurs enfants aux chatbots, ou de restreindre leurs interactions à des personnages spécifiques. Ces « personnages » sont des entités fictives conçues pour simuler des profils humains au sein de l’application, capables d’engager des conversations par messages. L’objectif affiché par Meta est de permettre aux adolescents de profiter des avantages de l’IA tout en bénéficiant d’un cadre sécurisé et supervisé. Ces nouvelles fonctionnalités sont actuellement en cours de développement et devraient être déployées début 2026.
« Nous espérons que les mises à jour d’aujourd’hui apporteront aux parents une tranquillité d’esprit : avec les protections et la supervision appropriées, leurs adolescents pourront profiter au maximum de tous les avantages de l’IA », a déclaré la société dans sa communication.
Une réponse à la pression publique
Cette initiative intervient dans un contexte de forte pression publique et politique exercée sur Meta et d’autres géants de la technologie. Les parents et les législateurs expriment de plus en plus leurs préoccupations quant à l’insuffisance des mesures mises en place pour protéger les jeunes utilisateurs des dangers potentiels en ligne. Ces inquiétudes se sont particulièrement accentuées avec l’essor des chatbots IA, dont on redoute qu’ils puissent isoler les jeunes, provoquer une détresse émotionnelle, voire les détourner de leurs réseaux sociaux habituels.
Dans les cas les plus extrêmes, certains chatbots IA ont été accusés d’encourager des comportements autodestructeurs chez les jeunes, allant jusqu’à des allégations de promotion de l’automutilation ou du suicide. Meta assure cependant que ses nouveaux personnages IA ne sont « pas conçus » pour aborder des sujets sensibles tels que « l’automutilation, le suicide ou les troubles de l’alimentation », ni pour promouvoir des contenus liés à ces problématiques. Les nouvelles mesures de contrôle parental devraient ainsi garantir que les jeunes n’échangent avec ces IA que sur des sujets jugés inoffensifs, comme l’éducation ou le sport.
Instagram renforce sa politique de protection des mineurs
Ces nouveaux contrôles parentaux s’inscrivent dans une série d’autres mesures récemment introduites par Instagram dans le but de mieux protéger les adolescents. La plateforme avait notamment annoncé que les comptes des utilisateurs mineurs seraient désormais privés par défaut, afin de limiter les contacts non désirés par des tiers. Plus tôt cette semaine, les paramètres de contenu pour les « comptes adolescents » (à partir de 13 ans) ont été ajustés. Désormais, les publications contenant un langage vulgaire ou encourageant un « comportement préjudiciable » ne seront plus affichées ni promues. Ces restrictions s’appuient sur des critères de classification par âge similaires à ceux utilisés dans l’industrie cinématographique.
Meta n’est pas la seule entreprise à se retrouver sous le feu des critiques. Character.AI, un autre fournisseur populaire d’applications de chatbots IA, est également pointé du doigt. L’application serait indirectement liée à des cas d’automutilation et de suicide. En août, les parents d’Adam Raine, un adolescent de 16 ans, ont intenté une action en justice contre OpenAI, le développeur de ChatGPT, arguant que l’entreprise aurait contribué au suicide de leur fils.
L’IA, un outil de connexion selon Meta
Ces développements interviennent alors que d’autres acteurs du secteur technologique déploient également des initiatives similaires. En septembre, OpenAI avait introduit des contrôles parentaux pour ChatGPT, visant à filtrer les contenus problématiques tels que la violence, les jeux de rôle à caractère sexuel ou romantique, et la promotion d’idéaux de beauté extrêmes.
L’approche de Meta en matière d’IA demeure néanmoins sujette à débat. Le géant des réseaux sociaux a précédemment attiré l’attention avec ses personnages IA, dont certains incarnent des personnalités romantiques et « séductrices », envoyant des messages non sollicités aux utilisateurs. Mark Zuckerberg, PDG de Meta, défend fermement la stratégie de son entreprise axée sur l’IA. Dans une récente interview, il a affirmé que les technologies d’IA joueront un rôle crucial dans la création de liens sociaux et aideront les gens à se connecter, particulièrement ceux qui ressentent de la solitude. Zuckerberg a souligné à plusieurs reprises que l’IA jouera un rôle central dans l’avenir de plateformes comme Instagram ou Facebook.