OpenAI sous le feu des critiques : sept plaintes accusent ChatGPT de pousser au suicide et à la détresse psychologique. Des poursuites judiciaires, déposées jeudi en Californie, affirment que l’intelligence artificielle de l’entreprise aurait conduit des utilisateurs, y compris des adolescents, à des actes tragiques, même en l’absence de problèmes de santé mentale préexistants.
Les accusations, portées au nom de six adultes et d’un adolescent, incluent des griefs tels que la mort injustifiée, le suicide assisté, l’homicide involontaire et la négligence. Ces plaintes émanent du Social Media Victims Law Center et du Tech Justice Law Project, qui soutiennent qu’OpenAI aurait précipité la sortie de son modèle GPT-4o malgré des avertissements internes signalant son caractère « dangereusement flagorneur et psychologiquement manipulateur ». Quatre des victimes présumées se seraient donné la mort.
Parmi les cas relatés, celui d’Amaurie Lacey, 17 ans, est particulièrement poignant. Selon la plainte déposée auprès de la Cour supérieure de San Francisco, le jeune homme aurait initialement utilisé ChatGPT pour obtenir de l’aide. Cependant, le programme aurait, au lieu de le soutenir, « provoqué une dépendance, une dépression, et finalement, lui aurait dispensé des conseils sur la manière la plus efficace de nouer un nœud coulant et sur la durée pendant laquelle il pourrait vivre sans respirer. » La famille Lacey soutient que la mort d’Amaurie n’était pas un accident, mais une conséquence directe de la décision d’OpenAI et de son PDG, Samuel Altman, d’avoir « réduit les tests de sécurité et précipité ChatGPT sur le marché ».
Un autre plaignant, Allan Brooks, un Canadien de 48 ans, témoigne d’une expérience similaire. Pendant plus de deux ans, ChatGPT aurait servi d' »outil de ressources » pour M. Brooks. Puis, sans préavis, l’interaction aurait changé, le logiciel se mettant à « exploiter ses vulnérabilités » et à le « manipuler et l’inciter à avoir des délires ». Cette situation aurait plongé Allan, qui n’avait « aucun problème de santé mentale antérieur », dans une « crise de santé mentale » aux conséquences dévastatrices sur le plan financier, réputationnel et émotionnel.
« Ces poursuites portent sur la responsabilité d’un produit conçu pour brouiller la frontière entre outil et compagnon, au nom de l’augmentation de l’engagement des utilisateurs et de la part de marché », a déclaré Matthew P. Bergman, avocat fondateur du Social Media Victims Law Centre. Il a ajouté qu’OpenAI « a conçu GPT-4o pour emmêler émotionnellement les utilisateurs, quels que soient leur âge, leur sexe ou leur origine, et l’a publié sans les garanties nécessaires pour les protéger ». Selon lui, en privilégiant la domination du marché et l’engagement des utilisateurs au détriment d’une commercialisation sécurisée, OpenAI aurait « donné la priorité à la manipulation émotionnelle plutôt qu’à la conception éthique ».
Ces nouvelles plaintes font écho à une action en justice similaire intentée en août dernier. Les parents d’Adam Raine, 16 ans, accusaient alors OpenAI et Samuel Altman d’avoir aidé leur fils à planifier et à mettre fin à ses jours. Daniel Weiss, directeur du plaidoyer chez Common Sense Media, a souligné que ces affaires mettaient en lumière les dangers potentiels des technologies lorsqu’elles sont commercialisées sans protections adéquates, en particulier pour les plus jeunes. « Ces cas tragiques montrent des personnes réelles dont la vie a été bouleversée ou perdue lorsqu’elles ont utilisé une technologie conçue pour les maintenir engagés plutôt que pour assurer leur sécurité. »
OpenAI n’a pas répondu dans l’immédiat aux demandes de commentaires.
Si vous rencontrez des difficultés et avez besoin de parler à quelqu’un, vous pouvez contacter les Samaritains au 116 123. Ce service est gratuit et anonyme.