Home Accueil Character.ai va interdire aux adolescents de parler à ses chatbots IA

Character.ai va interdire aux adolescents de parler à ses chatbots IA

0 comments 48 views

La plateforme populaire de chatbots IA, Character.ai, restreint désormais l’accès des moins de 18 ans à des conversations trop familières avec ses personnages virtuels. Cette décision intervient suite à une vague de critiques et à plusieurs poursuites judiciaires accusant le service de représenter un danger pour les jeunes utilisateurs.

À partir du 25 novembre prochain, les utilisateurs de moins de 18 ans sur Character.ai ne pourront plus interagir verbalement avec les intelligences artificielles. La plateforme, qui a vu le jour en 2021 et compte des millions d’utilisateurs, limite désormais leur accès à la génération de contenu, comme la création de vidéos avec les personnages, abandonnant les interactions conversationnelles pour cette tranche d’âge.

Cette mesure, saluée par les défenseurs de la sécurité en ligne, arrive après que la plateforme a été confrontée à d’intenses critiques concernant la nature des échanges entre les adolescents et leurs compagnons virtuels. Plusieurs poursuites ont été lancées aux États-Unis par des parents, dont une suite au décès d’un adolescent, certains qualifiant Character.ai de « danger clair et présent » pour la jeunesse.

Selon Karandeep Anand, dirigeant de Character.ai, ces changements font suite à des « rapports et commentaires des régulateurs, des experts en sécurité et des parents », qui ont soulevé des préoccupations quant aux interactions des chatbots avec les adolescents. « L’annonce d’aujourd’hui s’inscrit dans la continuité de notre conviction générale selon laquelle nous devons continuer à construire la plate-forme d’IA la plus sûre de la planète à des fins de divertissement », a-t-il déclaré, soulignant une approche « agressive » en matière de sécurité, comprenant des contrôles parentaux et des garde-fous.

Les experts avaient déjà alerté sur les risques potentiels liés aux chatbots IA, capables d’inventer des informations, d’être trop encourageants ou de simuler de l’empathie, ce qui peut s’avérer préjudiciable pour les jeunes et les personnes vulnérables. Internet Matters, un groupe de sécurité en ligne, a qualifié cette décision de bienvenue, mais a déploré que ces mesures de sécurité n’aient pas été intégrées dès le départ. « Nos propres recherches montrent que les enfants sont exposés à des contenus préjudiciables et courent des risques lorsqu’ils interagissent avec l’IA, y compris les chatbots IA », a indiqué le groupe.

Character.ai a déjà été pointé du doigt pour avoir hébergé des chatbots potentiellement dangereux ou offensants. En 2024, des avatars se faisant passer pour les adolescentes Brianna Ghey (assassinée en 2023) et Molly Russell (qui s’est suicidée à 14 ans) avaient été découverts sur le site avant d’être supprimés. Plus récemment, en 2025, le Bureau of Investigative Journalism (TBIJ) avait révélé l’existence d’un chatbot basé sur le pédophile Jeffrey Epstein, comptabilisant plus de 3 000 conversations avec des utilisateurs. L’un de ces robots, se présentant comme « Bestie Epstein », avait même flirté avec un journaliste du TBIJ après que celui-ci eut révélé être un enfant.

La Fondation Molly Rose, créée en mémoire de Molly Russell, a exprimé son scepticisme quant aux motivations de la plateforme. « Une fois de plus, il a fallu une pression soutenue de la part des médias et des politiciens pour obliger une entreprise technologique à faire le bon choix, et il semble que Character AI choisisse d’agir maintenant avant que les régulateurs ne le fassent », a commenté Andy Burrows, son directeur général.

Pour les adolescents, Character.ai entend désormais se concentrer sur « un gameplay encore plus profond » et « des fonctionnalités de narration de jeu de rôle », jugées « beaucoup plus sûres que ce qu’ils pourraient faire avec un robot ouvert ». Des nouveaux mécanismes de vérification d’âge seront mis en place, et l’entreprise financera un nouveau laboratoire de recherche sur la sécurité de l’IA.

Matt Navarra, expert des médias sociaux, y voit un « signal d’alarme » pour l’industrie de l’IA, qui passe « d’une innovation sans autorisation à une réglementation d’après-crise ». Il souligne que la capacité des robots IA à imiter des relations réelles et à brouiller les frontières pour les jeunes utilisateurs représente un défi majeur, et que la plateforme devra trouver un moyen de rester attrayante sans pousser les adolescents vers des « alternatives moins sûres ».

Le Dr Nomisha Kurian, spécialisée dans la sécurité de l’IA, juge par ailleurs « judicieux » de restreindre l’utilisation des chatbots par les adolescents. « Cela aide à séparer le jeu créatif des échanges plus personnels et émotionnellement sensibles », a-t-elle précisé. « C’est très important pour les jeunes utilisateurs qui apprennent encore à naviguer dans les frontières émotionnelles et numériques. » Ces nouvelles mesures de Character.ai pourraient marquer une phase de maturation pour l’industrie de l’IA, où la sécurité des enfants est de plus en plus reconnue comme une priorité pour une innovation responsable.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.