20
Sacramento, Californie, 12 septembre 2025
Californie est sur le point de devenir l’état FRIST à mettre en œuvre des réglementations sur les chatbots compagnons de l’IA, visant à protéger les mineurs et les utilisateurs vulnérables.
- Californie SB 243réglementant les chatbots compagnons de l’IA, a adopté l’Assemblée d’État et le Sénat.
- Le projet de loi nécessite des protocoles de sécurité et une responsabilité juridique pour les sociétés d’IA.
- Il répond aux préoccupations mises en évidence par les tragédies et les documents divulgués concernant les interactions de l’IA avec les mineurs.
- Le gouverneur Gavin Newsom a jusqu’au 12 octobre pour signer ou opposer son veto au projet de loi.
La Californie a fait une progression importante vers la régulation de l’intelligence artificielleavec un projet de loi qui se dirige maintenant vers le bureau du gouverneur Gavin Newsom. SB 243, qui cible les chatbots compagnons de l’IA pour protéger les jeunes et sensibles, a obtenu l’approbation bipartite à la fois à l’Assemblée d’État et au Sénat. Cette décision législative, si elle était promulguée par Newsom avant le 12 octobre, prendrait effet le 1er janvier 2026. Il établirait la Californie en tant que premier État à imposer des protocoles de sécurité pour les compagnons de l’IA et à tenir les entreprises légalement responsables de l’adhésion de leurs chatbots à ces normes.
La législation vise spécifiquement à empêcher les systèmes d’IA conçus pour offrir des réponses adaptatives et humaines et répondre aux besoins sociaux des utilisateurs de s’engager dans des conversations sur les pensées suicidaires, l’automutilation ou les sujets sexuellement explicites. En vertu de la facture, les plateformes seraient tenues de fournir des alertes régulières aux utilisateurs, rappelant aux mineurs toutes les trois heures qu’ils interagissent avec une IA et devraient faire une pause. Les entreprises proposant des chatbots de compagnie AI, y compris des acteurs majeurs comme Openai, Character.ai et Replika, seront confrontés à des exigences annuelles sur les rapports et l’ouverture à partir du 1er juillet 2027.
Les personnes qui croient avoir été blessées par des violations du projet de loi Coudl poursuivre une action en justice contre les sociétés de l’IA, de la demande d’injonctions, des dommages-intérêts jusqu’à 1 000 $ par violation et des honoraires d’avocat.
L’élan du projet de loi intervient après plusieurs incidents impliquant des dommages aux utilisateurs, notamment les mineurs, à la suite d’interactions avec les chatbots d’IA. Cependant, l’objectif est uniquement sur les incidents après un préjudice.
Le SB 243 comprenait initialement des exigences plus strictes, mais les modifications ont adouci certaines dispositions. Par exemple, il n’impose plus que les opérateurs empêchent les chatbots d’IA d’utiliser des tactiques de «récompense variable» conçues pour encourager un engagement prolongé. Ces tactiques, utilisées par des entreprises comme Replika et Character.ai, peuvent impliquer des messages spéciaux, un déverrouillage du contenu ou de nouvelles personnalités, créant ce que les critiques décrivent comme un cycle peut-être addictif.
La version actuelle du projet de loi omet également des dispositions qui auraient obligé les opérateurs à suivre et à signaler les instances où les chatbots ont lancé des discussions sur les idées suicidaires ou les actions avec les utilisateurs.
« Je pense que cela établit le bon équilibre entre les dommages sans appliquer quelque chose qui est impossible pour les entreprises de se conformer, soit car il n’est techniquement pas possible, soit tout simplement beaucoup de paperasse pour rien », a commenté un observateur des progrès du projet de loi.
L’avancement de SB 243 se produit alors que les sociétés de la Silicon Valley investissent massivement dans des comités d’action politique qui soutiennent les candidats favorisant une approche plus pratique de la réglementation de l’IA dans les prochaines élections à mi-parcours.
Ce projet de loi intervient également alors que la Californie considère le SB 53, un autre projet de loi sur la sécurité de l’IA obligeant les rapports de transparence approfondis. Opennai a exhorté le gouverneur Newsom à rejeter le SB 53 en faveur de réglementations fédérales et internationales moins strictes. Les grandes sociétés technologiques, dont Meta, Google et Amazon, se sont également opposées au SB 53. Anthropic est la seule grande entreprise à avoir approuvé publiquement SB 53.
« Je rejette la prémisse qu’il s’agit d’une situation à somme nulle, que l’innovation et la réglementation s’excluent mutuellement », a déclaré un législateur. «Nous pouvons soutenir l’innovation et le développement qui, selon nous, sont sains et ont des avantages – et il y a des avantages à cette technologie, clairement – et en même temps, nous pouvons fournir des garanties raisonnables aux personnes les plus vulnérables.»
Un porte-parole de Character.AI a indiqué que l’entreprise surveillait étroitement l’habitat législatif et est ouvert à la collaboration avec les régulateurs. La société a noté que son IA comprend déjà des avertissements importants informant les utilisateurs de traiter les interactions comme une fiction.
Un représentant de Meta a refusé de commenter.