1
Alors que les entreprises technologiques américaines augmentent leur transaction internationale, avec un solide soutien de la Administration Trumples garanties pour s’assurer que les investissements et les pratiques commerciales ne violent pas les droits de l’homme ne sont introuvables. L’Amérique abandonnera-t-elle ses principes fondamentaux au nom de «Gagner la course AI»?
WASHINGTON, DC – En juillet, l’administration Trump a organisé un événement intitulé «Gagner le AI Race», Où il a dévoilé son plan d’action de l’IA. Comme les accords de centre de données d’un milliard de dollars annoncés lors du voyage du président Donald Trump au cours du passé dans le golfe Persique, le plan est destiné à améliorer le leadership américain en IA. Mais comme le plan ni les annonces antérieures mentionnaient les droits de l’homme, il est juste de remettre en question ce que cela signifie même pour les États-Unis de« gagner »la race AI.
Beaucoup à Washington et à la Silicon Valley supposent simplement que la technologie américaine est intrinsèquement – presque par définition – alignée sur les valeurs démocratiques. En tant que PDG d’Openai Sam Altman dit Le Congrès en mai dernier, «Nous voulons nous assurer que l’IA démocrate gagne sur l’IA autoritaire.» Cela peut être un bon sentiment, mais les nouveaux systèmes technologiques ne protègent pas les droits de l’homme par défaut. Les décideurs et les entreprises doivent prendre des mesures proactives pour garantir que le déploiement de l’IA répond à certaines normes et conditions – comme cela se produit déjà dans de nombreuses autres industries.
Rapports récents du Groupe de travail des Nations Unies sur les affaires et les droits de l’hommele Conseil des droits de l’homme des Nations Unieset le Freedom Online Coalition ont attiré l’attention sur le fait que les gouvernements et les entreprises ont la responsabilité d’évaluer comment les systèmes d’IA affecteront les droits des gens. Les cadres internationaux existants obligent toutes les entreprises à respecter les droits de l’homme et à éviter de provoquer ou de contribuer aux violations des droits de l’homme par le biais de leurs activités. Mais les sociétés d’IA, pour la plupart, n’ont pas reconnu et réaffirmé ces responsabilités.
Ces appels à l’action réaffirment les obligations déjà assurées par d’autres industries. La plupart des grandes entreprises savent qu’elles doivent effectuer des évaluations d’impact sur les droits de l’homme avant d’obtenir ou de déployer de nouveaux systèmes; intégrer la diligence raisonnable des droits de l’homme dans la conception des produits et les décisions commerciales; Inclure des garanties contractuelles pour éviter une mauvaise utilisation; et fournir des remèdes significatifs lorsque des dommages se produisent.
Le défi avec l’IA n’est pas que les normes ne soient pas claires. C’est que trop d’entreprises – et les gouvernements – agissent comme si les normes ne s’appliquent pas. Considérez les accords de l’IA de Trump dans le Golfe. S’ils sont finalisés, ces investissements pourraient consolider l’ambition de la région de devenir un centre d’IA mondial, ce qui soulève des questions troublantes quant à savoir si les États-Unis et ses chefs de technologie abandonnent les engagements de longue date.
Aux Émirats arabes unis, les États-Unis approuvé Les transferts de puces avancées vers G42, une entreprise de l’IA émirati, dans le cadre d’un plan plus large pour construire un campus IA massif à Abu Dhabi. En Arabie saoudite, une nouvelle société soutenue par l’État vient de dévoiler des accords de plusieurs milliards de dollars avec les grandes entreprises américaines pour acquérir des puces et construire des infrastructures. Et le starlink d’Elon Musk a également été effacé pour fonctionner dans le royaume. Aucune de ces annonces n’a mentionné les protections pour garantir que la technologie ne sera pas utilisée pour la surveillance ou la répression.
Le risque n’est pas hypothétique. Les EAU sont connus pour avoir Spyware d’occasion contre les journalistes et les dissidents, et l’Arabie saoudite s’est engagée dans toutes sortes répression transnationaleainsi que rester profondément impliqué dans la crise humanitaire au Yémen. Les nouvelles capacités d’IA augmentent considérablement le pouvoir des gouvernements de piétiner les droits de base, par exemple en synthétisant des informations détaillées sur les dissidents, en effectuant une surveillance en temps réel, en analysant les publications et les communications des médias sociaux des gens et le contrôle de la production des modèles d’IA.
Contrairement aux biens ou aux infrastructures traditionnelles, les systèmes d’IA peuvent être transférés numériquement et déployés avec peu d’examen public. Dans le cadre d’un plan d’IA souverain, par lequel un gouvernement développe et contrôle les systèmes d’IA à la disposition de ses habitants, ces systèmes peuvent rapidement être transformés en instruments de pouvoir de l’État. Alors que les entreprises américaines augmentent leur transaction internationale – avec un solide soutien de l’administration Trump – l’échec à inclure les engagements des droits de l’homme marque un tournant dangereux.
C’est aussi une occasion manquée. L’accès aux technologies de pointe des États-Unis pourrait être utilisé comme effet de levier, à la fois pour faire progresser les applications respectueuses des droits de l’homme et pour protéger la technologie contre les abus. Il n’est pas nécessaire de partir de zéro ici. Le Les principes directeurs de l’ONU sur les affaires et les droits de l’homme – qui ont été approuvés par les États-Unis et de nombreux alliés – exigent que les entreprises évitent la violation des droits de l’homme et pour faire face à tous les préjudices qu’ils peuvent causer.
Le Lignes directrices de l’OCDE pour les entreprises multinationales Allez encore plus loin, nécessitant une diligence raisonnable entre les opérations et les chaînes d’approvisionnement. Et le Initiative du réseau mondial (GNI), lancé par les principales sociétés technologiques il y a 17 ans, a établi des principes pour protéger la confidentialité et la libre expression des utilisateurs sur les marchés à haut risque, les sociétés membres étant régulièrement évaluées pour la conformité (notre organisation était un partenaire fondateur).
Des entreprises comme Coca-Cola, Volkswagen et Estée Lauder appliquent déjà ces cadres ou se soumettent à une surveillance indépendante, tout comme certaines entreprises technologiques. Mais l’industrie technologique, pour la plupart, n’a pas réussi à approuver ces responsabilités explicitement pour l’IA, même si le besoin y est encore plus important. Dans une première étape, les dirigeants de sociétés d’IA qui ne font pas encore partie de GNI pourraient bénéficier de son cadre et de son réseau.
Un récemment divulgué note Du PDG anthropique, Dario Amodei, montre ce qui est en jeu. Annoncer l’intention de l’entreprise d’accepter l’investissement de Gulf State après avoir suggéré auparavant que ce ne serait pas, Amodei a fait valoir: «Il est parfaitement cohérent de plaider pour une politique de` `personne n’est autorisé à faire X», mais si cette politique échoue et que tout le monde fait x, pour faire x nous-mêmes. »
Si les entreprises d’IA se retrouvent dans une course vers le bas, quel espoir y aura-t-il pour les protections de base des droits de l’homme? Si gagner la course de l’IA signifie abandonner les valeurs qui nous distinguent des rivaux autoritaires comme la Chine, ce sera une victoire pyrrhique. Notre avenir ne sera pas sécurisé simplement parce que la technologie est américaine.
Il n’est pas trop tard pour que les gouvernements et les entreprises s’engagent à appliquer des normes de défense des droits humains établies depuis longtemps à l’IA. Les outils sont déjà disponibles; Il n’y a aucune excuse pour ne pas les utiliser.
Hear est une version révisée du texte fourni, en se concentrant sur la clarté et la concision:
Le risque n’est pas hypothétique: les EAU sont connus pour utiliser des logiciels espions contre les journalistes et les dissidents. L’Arabie saoudite s’est également engagée dans la répression transnationale et est profondément impliquée dans la crise humanitaire au Yémen. Les nouvelles capacités d’IA amplifient considérablement le pouvoir des gouvernements de porter atteinte aux droits fondamentaux. Cela comprend la synthèse d’informations détaillées sur les dissidents, la réalisation de surveillance en temps réel, l’analyse des publications et des communications sur les réseaux sociaux et le contrôle des sorties du modèle d’IA.
Contrairement aux biens ou aux infrastructures traditionnelles, les systèmes d’IA peuvent être transférés numériquement et déployés avec un contrôle public minimal. Dans le cadre d’un plan de l’IA souverain, où un gouvernement développe et contrôle l’accès de ses citoyens à l’IA, ces systèmes peuvent rapidement devenir des outils de pouvoir de l’État. À mesure que les entreprises américaines augmentent l’accord international, fortement soutenu par l’administration Trump, leur incapacité à inclure les engagements des droits de l’homme représente une tendance dangereuse.
Cela présente également une perspective manquée. L’accès aux principales technologies américaines pourrait être exploité pour faire progresser les applications respectueuses des droits de l’homme et empêcher l’utilisation abusive de la technologie. Il n’est pas nécessaire de partir de zéro.
https://www.youtube.com/watch?v=exdvdhogqoe