Home Sciences et technologies Anthropic soutient CA Ai Safety Bill SB 53

Anthropic soutient CA Ai Safety Bill SB 53

0 comments 101 views

Sacramento, CA – Dans une décision importante vers le développement responsable de l’intelligence artificielle, la Californie fait progresser le projet de loi du Sénat 53 (SB 53), une législation révolutionnaire conçue pour assurer la transparence et la sécurité dans la création et le déploiement des modèles d’IA les plus puissants. Le projet de loi, connu sous le nom de Transparency in Frontier Artificial Intelligence Act, a recueilli le soutien de la principale développeur d’IA Anthropic, signalant un changement potentiel dans les attitudes de l’industrie envers la réglementation proactive.

Une approche «fiduir mais vérifier» de la surveillance de l’IA

Le SB 53 représente une approche révisée de la réglementation de l’IA après le veto du gouverneur Gavin Newsom d’un projet de loi plus large l’année dernière. Après le veto, Newsom a créé un groupe d’experts en travail pour affiner la stratégie législative, entraînant l’itération actuelle du projet de loi. Le sénateur Scott Wiener, un moteur clé de la législation aux côtés du sénateur Susan Rubio, a souligné que le SB 53 privilégie la transparence sur la responsabilité, appliquant légalement les engagements de sécurité précédemment effectués volontairement par les grandes sociétés d’IA. Helen Toner, de l’Université de Georgetown, a noté à NBC que la transparence accrue des développeurs de l’IA frontalière bénéficie d’un large consensus au sein de la communauté politique de l’IA.

Dispositions clés de la loi sur la sécurité de l’IA en Californie

La législation décrit une série d’obligations pour les organisations développant une IA avancée, en se concentrant sur les mesures de sécurité proactives et les rapports sur les incidents. Ceux-ci incluent:

Cadres de sécurité obligatoires

Les sociétés d’IA devront publier des protocoles complets de sécurité et de sécurité détaillant leurs procédures de test, leurs seuils de risque et leurs stratégies d’atténuation pour des résultats potentiellement catastrophiques. Ce niveau de détail vise à fournir un aperçu du public sur la façon dont ces modèles puissants sont développés et contrôlés.

Rapports de transparence du public

Avant de publier de nouveaux modèles d’IA à grande puissance, les entreprises doivent soumettre des rapports de transparence du public. Ces rapports résumeront les évaluations des risques, expliqueront les décisions de déploiement et divulgueront toute implication des testeurs tiers. Cela vise à favoriser la responsabilité et la compréhension du public des risques potentiels.

Représentation des incidents critiques

Les développeurs sont mandatés pour signaler des incidents de sécurité critiques – tels que la perte de contrôle du modèle ou les violations de données – à l’état dans un délai strict: 15 jours pour les incidents standard et 24 heures pour les cas urgents. Des résumés confidentiels des évaluations des risques catastrophiques doivent également être fournis au Bureau des services d’urgence de la Californie.

Protections de dénonciation

Le SB 53 établit des protections solides pour les employés qui soulèvent des problèmes de sécurité, garantissant des canaux de rapports anonymes et interdisant les représailles contre les dénonciateurs. Cette disposition est cruciale pour encourager la responsabilité interne et la surface des problèmes potentiels avant de dégénérer.

Application et portée du projet de loi

La loi s’appliquera aux grandes sociétés d’IA – celles qui ont des revenus annuels dépassant 500 millions de dollars – et ceux utilisant un pouvoir informatique substantiel pour la formation modèle. Les pénalités pour violations varient de 10 000 $ pour les infractions mineures à 10 millions de dollars pour les violations répétées, connaissant les violations liées au risque catastrophique. Surtout, le SB 53 empêche les gouvernements locaux de promulguer des réglementations contradictoires de l’IA, créant un cadre unifié à l’échelle de l’État.

Présentation de CalCompute

Un élément clé de SB 53 est la création de CalCompute, un cluster de cloud public géré par l’État organisé dans le système de l’Université de Californie. Cette initiative vise à démocratiser l’accès aux ressources informatiques, favorisant la recherche sûre et équitable sur l’IA hors de portée des grandes entreprises.

Pourquoi Anthropic prend en charge SB 53

Anthropic, une principale société de sécurité et de recherche de l’IA, a approuvé publiquement le SB 53, la décrivant comme une approche «confiance mais vérifie». La société estime que le projet de loi établit un équilibre crucial entre favoriser l’innovation et assurer la responsabilité. Anthropic a mis en évidence sa politique de mise à l’échelle et les cartes système responsables existantes comme des exemples des garanties qu’elle utilise déjà, faisant valoir que le mandat de ces pratiques à travers l’industrie empêchera les concurrents de compromettre la sécurité pour un avantage concurrentiel. « Les progrès puissants de l’IA n’attendront pas le consensus à Washington », a déclaré Anthropic, soulignant l’urgence de l’action au niveau de l’État.

S’il est adopté, la Californie deviendra le premier État à appliquer légalement les promesses de sécurité volontaires de l’intermédiaire, créant un précédent pour la réglementation nationale et internationale. Mais qu’est-ce que cela signifie pour l’avenir de l’innovation de l’IA? Et comment ces réglementations auront-elles un impact sur le rythme du développement?

Des informations supplémentaires sur les essais de sécurité rigoureux menés par Openai et Anthropic peuvent être trouvés ici.

Des questions fréquemment posées sur la facture de l’IA de la Californie

Quel est l’objectif principal de la Californie SB 53?

L’objectif principal de SB 53 est d’établir des normes de transparence et de sécurité pour le développement et le déploiement de puissants modèles d’intelligence artificielle en Californie.

Quelles entreprises seront affectées par la Transparency in Frontier Artificial Intelligence Act?

Le projet de loi s’applique aux grandes sociétés d’IA avec des revenus annuels dépassant 500 millions de dollars et ceux utilisant une puissance informatique importante pour la formation du modèle d’IA.

Quel type de rapports de sécurité est requis sous SB 53?

Les entreprises doivent publier des cadres de sécurité détaillés, des rapports de transparence publique résumant les évaluations des risques et signaler des incidents de sécurité essentiels à l’État.

Comment SB 53 protège-t-il les employés qui soulèvent des problèmes de sécurité de l’IA?

Le projet de loi crée des protections de dénonciation, garantissant des canaux de rapports anonymes et interdisant les représailles contre les employés qui divulguent des problèmes de sécurité.

Qu’est-ce que CalCompute et comment est-il lié à SB 53?

CalCompute est un cluster de cloud public géré par l’État établi par SB 53 pour étendre l’accès à la puissance de calcul pour une recherche en toute sécurité et équitable sur l’IA.

Rejoignez la conversation – Que pensez-vous de l’approche de la Californie à la sécurité de l’IA?

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.