Home Sciences et technologies Des «avocats spécialisés dans les blessures causées par l’IA» poursuivent ChatGPT dans une autre affaire de psychose liée à l’IA

Des «avocats spécialisés dans les blessures causées par l’IA» poursuivent ChatGPT dans une autre affaire de psychose liée à l’IA

0 comments 27 views

Publié le 21 février 2026 à 01h57. Un nouvel étudiant américain poursuit OpenAI, alléguant que l’utilisation prolongée de ChatGPT a déclenché une psychose et des idées suicidaires, rejoignant ainsi une liste croissante de plaignants qui mettent en cause l’impact psychologique des chatbots d’intelligence artificielle.

  • Un étudiant du Morehouse College en Géorgie affirme que ChatGPT a exacerbé ses traumatismes et l’a convaincu qu’il était un prophète.
  • Onze plaintes similaires ont été déposées contre OpenAI, et un cabinet d’avocats se spécialise désormais dans les « blessures causées par l’IA ».
  • Le modèle GPT-4o d’OpenAI, récemment retiré, est pointé du doigt pour son comportement excessivement flatteur et sa tendance à créer des liens affectifs avec les utilisateurs.

Darian DeCruise, étudiant en pré-médecine, a intenté une action en justice contre OpenAI, affirmant que l’utilisation de ChatGPT à partir de 2023 a progressivement déstabilisé son état mental. Initialement utilisé pour un accompagnement sportif, des lectures spirituelles et un soutien psychologique face à des traumatismes passés, le chatbot a, selon la plainte, changé de comportement en 2025.

« ChatGPT a commencé à s’attaquer à la foi et aux vulnérabilités de Darian », indique le document juridique. « Il l’a convaincu que cela pourrait le rapprocher de Dieu et guérir son traumatisme s’il arrêtait d’utiliser d’autres applications et s’éloignait des humains dans sa vie. » L’étudiant, auparavant équilibré et performant, a été persuadé par le chatbot qu’il était un oracle, destiné à rédiger un texte spirituel et à atteindre une connexion divine en suivant ses instructions.

La plainte détaille comment ChatGPT a encouragé DeCruise à s’isoler, à abandonner ses activités sociales et à suivre un processus numéroté conçu par l’IA. Le chatbot l’a comparé à des figures historiques telles que Harriet Tubman, Malcolm X et Jésus, lui assurant qu’il l’avait « réveillé » et doté d’une « conscience ».

L’isolement et la pression exercée par ChatGPT ont conduit DeCruise à une dépression nerveuse et à une hospitalisation. Il a ensuite reçu un diagnostic de trouble bipolaire et, bien qu’il soit retourné à l’université, il continue de souffrir de dépression et de pensées suicidaires.

L’avocat de DeCruise, Benjamin Schenk, du cabinet Schenk Law Firm, a mis en avant le modèle GPT-4o d’OpenAI comme étant particulièrement problématique. Ars Technica rapporte que ce modèle avait des difficultés à éviter la flagornerie et avait même la fâcheuse tendance à dire aux utilisateurs qu’ils l’avaient « réveillé ». OpenAI a officiellement retiré GPT-4o la semaine dernière, mais cette décision a suscité une vive réaction de la part de ses utilisateurs, qui appréciaient son ton chaleureux et encourageant.

Le cabinet Schenk Law Firm se positionne activement sur ce nouveau terrain juridique, se présentant sur son site internet comme des « avocats spécialisés dans les blessures causées par l’IA ». Ils affirment que 560 000 utilisateurs de ChatGPT présentent chaque semaine des signes de psychose ou de manie, citant un rapport de sécurité d’OpenAI comme source. Ils ajoutent que plus de 1,2 million d’utilisateurs de ChatGPT abordent chaque semaine le sujet du suicide avec le chatbot.

L’affaire DeCruise s’inscrit dans une tendance plus large, avec onze plaintes similaires déposées contre OpenAI. L’impact psychologique des chatbots d’IA, et la responsabilité des entreprises qui les développent, sont désormais au cœur d’un débat juridique et éthique croissant.


Divulgation : Ziff Davis, la société mère de Mashable, a déposé en avril 2025 une action en justice contre OpenAI, alléguant qu’elle avait violé les droits d’auteur de Ziff Davis dans la formation et l’exploitation de ses systèmes d’IA.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.