30
Sacramento, CA – Dans une décision importante vers le développement responsable de l’intelligence artificielle, la Californie fait progresser le projet de loi du Sénat 53 (SB 53), une législation révolutionnaire conçue pour assurer la transparence et la sécurité dans la création et le déploiement des modèles d’IA les plus puissants. Le projet de loi, connu sous le nom de Transparency in Frontier Artificial Intelligence Act, a recueilli le soutien de la principale développeur d’IA Anthropic, signalant un changement potentiel dans les attitudes de l’industrie envers la réglementation proactive.
Une approche «fiduir mais vérifier» de la surveillance de l’IA
Le SB 53 représente une approche révisée de la réglementation de l’IA après le veto du gouverneur Gavin Newsom d’un projet de loi plus large l’année dernière. Après le veto, Newsom a créé un groupe d’experts en travail pour affiner la stratégie législative, entraînant l’itération actuelle du projet de loi. Le sénateur Scott Wiener, un moteur clé de la législation aux côtés du sénateur Susan Rubio, a souligné que le SB 53 privilégie la transparence sur la responsabilité, appliquant légalement les engagements de sécurité précédemment effectués volontairement par les grandes sociétés d’IA. Helen Toner, de l’Université de Georgetown, a noté à NBC que la transparence accrue des développeurs de l’IA frontalière bénéficie d’un large consensus au sein de la communauté politique de l’IA.
Dispositions clés de la loi sur la sécurité de l’IA en Californie
La législation décrit une série d’obligations pour les organisations développant une IA avancée, en se concentrant sur les mesures de sécurité proactives et les rapports sur les incidents. Ceux-ci incluent:
Cadres de sécurité obligatoires
Les sociétés d’IA devront publier des protocoles complets de sécurité et de sécurité détaillant leurs procédures de test, leurs seuils de risque et leurs stratégies d’atténuation pour des résultats potentiellement catastrophiques. Ce niveau de détail vise à fournir un aperçu du public sur la façon dont ces modèles puissants sont développés et contrôlés.
Rapports de transparence du public
Avant de publier de nouveaux modèles d’IA à grande puissance, les entreprises doivent soumettre des rapports de transparence du public. Ces rapports résumeront les évaluations des risques, expliqueront les décisions de déploiement et divulgueront toute implication des testeurs tiers. Cela vise à favoriser la responsabilité et la compréhension du public des risques potentiels.
Représentation des incidents critiques
Les développeurs sont mandatés pour signaler des incidents de sécurité critiques – tels que la perte de contrôle du modèle ou les violations de données – à l’état dans un délai strict: 15 jours pour les incidents standard et 24 heures pour les cas urgents. Des résumés confidentiels des évaluations des risques catastrophiques doivent également être fournis au Bureau des services d’urgence de la Californie.
Protections de dénonciation
Le SB 53 établit des protections solides pour les employés qui soulèvent des problèmes de sécurité, garantissant des canaux de rapports anonymes et interdisant les représailles contre les dénonciateurs. Cette disposition est cruciale pour encourager la responsabilité interne et la surface des problèmes potentiels avant de dégénérer.
Application et portée du projet de loi
La loi s’appliquera aux grandes sociétés d’IA – celles qui ont des revenus annuels dépassant 500 millions de dollars – et ceux utilisant un pouvoir informatique substantiel pour la formation modèle. Les pénalités pour violations varient de 10 000 $ pour les infractions mineures à 10 millions de dollars pour les violations répétées, connaissant les violations liées au risque catastrophique. Surtout, le SB 53 empêche les gouvernements locaux de promulguer des réglementations contradictoires de l’IA, créant un cadre unifié à l’échelle de l’État.
Présentation de CalCompute
Un élément clé de SB 53 est la création de CalCompute, un cluster de cloud public géré par l’État organisé dans le système de l’Université de Californie. Cette initiative vise à démocratiser l’accès aux ressources informatiques, favorisant la recherche sûre et équitable sur l’IA hors de portée des grandes entreprises.
Pourquoi Anthropic prend en charge SB 53
Anthropic, une principale société de sécurité et de recherche de l’IA, a approuvé publiquement le SB 53, la décrivant comme une approche «confiance mais vérifie». La société estime que le projet de loi établit un équilibre crucial entre favoriser l’innovation et assurer la responsabilité. Anthropic a mis en évidence sa politique de mise à l’échelle et les cartes système responsables existantes comme des exemples des garanties qu’elle utilise déjà, faisant valoir que le mandat de ces pratiques à travers l’industrie empêchera les concurrents de compromettre la sécurité pour un avantage concurrentiel. « Les progrès puissants de l’IA n’attendront pas le consensus à Washington », a déclaré Anthropic, soulignant l’urgence de l’action au niveau de l’État.
S’il est adopté, la Californie deviendra le premier État à appliquer légalement les promesses de sécurité volontaires de l’intermédiaire, créant un précédent pour la réglementation nationale et internationale. Mais qu’est-ce que cela signifie pour l’avenir de l’innovation de l’IA? Et comment ces réglementations auront-elles un impact sur le rythme du développement?
Des informations supplémentaires sur les essais de sécurité rigoureux menés par Openai et Anthropic peuvent être trouvés ici.
Des questions fréquemment posées sur la facture de l’IA de la Californie
L’objectif principal de SB 53 est d’établir des normes de transparence et de sécurité pour le développement et le déploiement de puissants modèles d’intelligence artificielle en Californie.
Le projet de loi s’applique aux grandes sociétés d’IA avec des revenus annuels dépassant 500 millions de dollars et ceux utilisant une puissance informatique importante pour la formation du modèle d’IA.
Les entreprises doivent publier des cadres de sécurité détaillés, des rapports de transparence publique résumant les évaluations des risques et signaler des incidents de sécurité essentiels à l’État.
Le projet de loi crée des protections de dénonciation, garantissant des canaux de rapports anonymes et interdisant les représailles contre les employés qui divulguent des problèmes de sécurité.
CalCompute est un cluster de cloud public géré par l’État établi par SB 53 pour étendre l’accès à la puissance de calcul pour une recherche en toute sécurité et équitable sur l’IA.