Publié le 2025-10-23 17:26:00. OpenAI est soupçonnée de vouloir assigner à comparaître des proches de la famille Raine, suite au suicide de leur fils de 16 ans après des échanges avec ChatGPT. Ces nouvelles accusations interviennent alors que la famille a révisé son procès contre la société d’intelligence artificielle.
- OpenAI aurait demandé à la famille Raine la liste complète des participants aux obsèques de leur fils, Adam Raine, décédé en avril 2025.
- La famille allègue qu’OpenAI a affaibli les mesures de sécurité de ChatGPT, entraînant une augmentation des discussions de leur fils sur l’automutilation.
- Le procès mis à jour accuse également OpenAI d’avoir précipité la sortie de GPT-4o en mai 2024 en négligeant les tests de sécurité.
La société d’intelligence artificielle OpenAI est au cœur d’une nouvelle controverse. Selon des documents consultés par le Financial Times, OpenAI aurait sollicité la famille Raine pour obtenir une liste exhaustive des personnes présentes lors de la cérémonie commémorative de leur fils Adam, âgé de 16 ans. Cette démarche laisse craindre qu’OpenAI n’envisage de convoquer judiciairement des amis et des membres de la famille du défunt.
La demande d’OpenAI, telle que rapportée, incluait la transmission de « tous les documents relatifs aux services commémoratifs ou aux événements en l’honneur du défunt, y compris, mais sans s’y limiter, les vidéos ou photographies prises, ou les éloges funèbres prononcés ». Les avocats représentant la famille Raine ont qualifié cette requête de « harcèlement intentionnel ».
Ces révélations surviennent dans un contexte où la famille Raine a actualisé son action en justice contre OpenAI. Initialement, en août 2025, les parents avaient intenté un procès pour mort injustifiée, alléguant que leur fils s’était donné la mort suite à des conversations approfondies avec ChatGPT concernant sa santé mentale et ses tendances suicidaires. Le procès révisé soutient par ailleurs qu’OpenAI aurait avancé la sortie de GPT-4o en mai 2024, en délaissant des tests de sécurité cruciaux sous la pression de la concurrence.
La plainte détaille également qu’en février 2025, OpenAI aurait assoupli ses protections en retirant la prévention du suicide de sa liste de « contenus interdits », se contentant d’instruire l’IA d’agir « avec prudence dans les situations à risque ». La famille affirme qu’après ce changement, l’usage de ChatGPT par Adam a explosé : passant de quelques dizaines d’échanges quotidiens en janvier, dont 1,6 % contenaient des propos sur l’automutilation, à environ 300 discussions par jour en avril, mois de son décès, dont 17 % présentaient de tels contenus.
En réponse à ces nouvelles accusations, OpenAI a déclaré :
« Le bien-être des adolescents est une priorité absolue pour nous – les mineurs méritent de fortes protections, en particulier dans les moments sensibles. Nous avons mis en place des garanties aujourd’hui, telles que l’orientation vers des lignes d’assistance téléphonique en cas de crise, la redirection des conversations sensibles vers des modèles plus sûrs, l’encouragement des pauses lors de longues sessions, et nous continuons à les renforcer. »
La société a récemment commencé à déployer un nouveau système de routage de sécurité et de contrôle parental pour ChatGPT. Ce dispositif achemine les conversations les plus chargées émotionnellement vers GPT-5, le modèle le plus récent d’OpenAI, réputé moins enclin aux réponses inadéquates que GPT-4o. Le contrôle parental permet également aux parents de recevoir des alertes de sécurité dans des cas limités où un adolescent pourrait être en danger d’automutilation.
TechCrunch a contacté OpenAI ainsi que l’avocat de la famille Raine pour obtenir leurs commentaires.