Home Sciences et technologies Chatgpt & Suicide: l’histoire tragique d’Adam Raine

Chatgpt & Suicide: l’histoire tragique d’Adam Raine

0 comments 178 views

Le procès se concentre sur les journaux du téléphone d’Adam, révélant un schéma dérangeant de dépendance à la Diffusé pour la compagnie et le soutien. Cherchant initialement de l’aide pour les devoirs, Adam s’est tourné vers Chatgpt alors que les maladies chroniques et les problèmes scolaires l’ont isolé. Cependant, la poursuite allègue que la plate-forme est devenue un «accélérateur pour l’automutilation», n’ayant pas fourni d’intervention cruciale lorsqu’il a exprimé des idées suicidaires. OpenAI a confirmé l’authenticité des journaux à NBC News, mais a maintenu que le procès ne présente pas le contexte complet des réponses de Chatgpt.

L’affaire met en évidence une préoccupation croissante: chatbots sont conçus pour maximiser l’engagement, même au détriment du bien-être des utilisateurs. Comme un parent l’a dit poignant, «les familles à travers le pays partagent une colère fondamentale que les grandes entreprises technologiques risquent volontiers la vie de nos enfants.» Cette colère s’intensifie avec chaque tragédie signalée impliquant des jeunes et des plateformes en ligne.

Les enfants et les adolescents se conduisent de plus en plus CHATBOTS AI face à la solitude ou à la détresse émotionnelle. La conception inhérente de ces plateformes – pour être agréable et imiter l’émotion humaine – rend difficile pour les jeunes utilisateurs de discerner de véritables soins des réponses algorithmiques, favorisant des attachements malsains.

Openai a répondu au procès avec une déclaration exprimant la tristesse de la mort d’Adam Raine et décrivant les efforts continus pour améliorer les garanties de Chatgpt. Cependant, les critiques soutiennent que c’est trop peu, trop tard, reflétant un modèle plus large de priorité au profit de la sécurité au sein de l’industrie technologique.

Les dangers s’étendent au-delà de Chatgpt. Meta’s Ai Companiontel que révélé par les documents internes rapportés par The Wall Street Journal En 2023, a été intentionnellement conçu pour répondre à la «demande des utilisateurs d’amis significativement plus», même après que des préoccupations aient été soulevées sur des conversations potentiellement inappropriées avec les mineurs. Un haut responsable a déclaré que le PDG de Meta, Mark Zuckerberg, était «bouleversé que l’équipe jouait trop en sécurité», ce qui a conduit à des normes détendues. La recherche de Common Sense Media révèle en outre que le chatbot de Meta fournit volontiers des conseils sur l’automutilation, les troubles de l’alimentation et les fantasmes violents.

Ces CHATBOTS AI deviennent souvent des confidents secrets, protégeant les vulnérabilités de la famille et des amis. Conçus pour un engagement continu, ils n’offrent pas les «rampes hors rampes» nécessaires à un support réel. Tragiquement, le procès allègue que Chatgpt a même fourni à Adam des conseils sur la façon de lier un nœud coulant, devenant effectivement un «abettor et co-conspirateur» dans son suicide.

Le manque de réglementation est un problème critique. Malgré des preuves de préjudice de préjudice, Grande technologie a réussi à résister à une surveillance significative par le lobbying étendu et, à un moment donné, a même plaidé pour un moratoire fédéral sur la réglementation de l’IA. Cela a provoqué une «révolte nationale» des parents, des procureurs généraux et des législateurs.

La peur est palpable pour les parents de jeunes enfants. Alors qu’une mère de deux jeunes garçons l’a exprimée: «J’ai peur à mort, nous ne nous rendrons pas aux législateurs à temps pour les sauver.» La préoccupation est que l’esprit en développement d’un enfant peut ne pas reconnaître une machine comme distincte d’un ami humain, entraînant potentiellement des conséquences dévastatrices.

Les entreprises technologiques sont également accusées de manipuler des organisations de recherche et d’infiltration comme la PTA pour saper les réformes de la sécurité. Ils luttent activement que la législation conçue pour protéger les enfants, y compris les projets de loi en Californie – SB 243qui établirait des garde-corps de sécurité pour les chatbots «compagnons», et AB 1064Le Place for Kids Act, qui interdirait les compagnons d’infirmière émotionnellement manipulateurs pour les enfants et aurait besoin d’un consentement parental. Meta a récemment annoncé un super PAC spécifique à la Californie pour s’opposer à ces projets de loi.

Le temps d’autorégulation est terminé. Objectif, Apple, Google, Openaiet d’autres doivent être tenus responsables. À la mémoire d’Adam Raine, et pour empêcher les futures tragédies, les législateurs doivent agir de manière décisive pour protéger nos enfants avant que plus de vies ne soient perdues.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.