Publié le 14 février 2024 02:41:00. L’armée américaine aurait utilisé l’intelligence artificielle développée par Anthropic, Claude, lors d’une opération controversée au Venezuela visant à arrêter Nicolás Maduro. Cette révélation soulève des questions éthiques et juridiques quant à l’utilisation de l’IA dans les opérations militaires et à la conformité des contrats avec les entreprises technologiques.
- Une opération militaire américaine secrète aurait été menée au Venezuela en janvier pour tenter de capturer l’ancien président Nicolás Maduro.
- L’armée américaine aurait utilisé Claude, un outil d’intelligence artificielle développé par Anthropic, lors de cette opération.
- Anthropic, soucieuse de l’utilisation de son IA, avait envisagé d’annuler un contrat de 200 millions de dollars avec le Pentagone.
Selon des sources proches du dossier, citées par le Wall Street Journal, l’armée américaine a déployé Claude lors d’une opération visant à arrêter Nicolás Maduro et son épouse à Caracas le mois dernier. Des bombardements auraient eu lieu dans plusieurs endroits de la capitale vénézuélienne. Cette utilisation de l’IA intervient alors que le Pentagone multiplie ses investissements dans ce domaine, mais elle pose un problème majeur : les règles d’utilisation d’Anthropic interdisent formellement l’emploi de Claude pour promouvoir la violence, développer des armes ou effectuer des activités de surveillance.
Interrogé sur cette affaire, le département américain de la Défense s’est refusé à tout commentaire. Un porte-parole d’Anthropic a déclaré :
« Nous ne pouvons pas dire si Claude ou tout autre modèle d’IA est utilisé dans des opérations spécifiques, classifiées ou non classifiées. L’utilisation de Claude – que ce soit dans le secteur privé ou au sein d’agences gouvernementales – doit être conforme à nos politiques d’utilisation. Nous travaillons en étroite collaboration avec nos partenaires pour garantir cette conformité. »
L’accès à Claude par le département de la Défense se ferait via Palantir, une entreprise spécialisée dans l’analyse de données et un partenaire régulier du gouvernement américain et des forces de l’ordre fédérales. Le contrat initial de 200 millions de dollars avait suscité des inquiétudes au sein d’Anthropic, notamment concernant la manière dont le Pentagone comptait utiliser l’IA. Dario Amodei, PDG d’Anthropic, s’est montré particulièrement préoccupé par les risques sociaux liés à l’IA et a plaidé pour une réglementation plus stricte.
Le secrétaire à la Défense, Pete Hegseth, a récemment affirmé que l’armée américaine ne collaborerait pas avec des modèles d’IA qui ne permettraient pas de mener la guerre, une déclaration interprétée comme une allusion aux discussions avec Anthropic. Ces tensions s’inscrivent dans un contexte plus large de désaccords entre Anthropic et l’administration Trump, la Maison Blanche accusant l’entreprise de faire pression pour une réglementation plus stricte et des restrictions sur les exportations de puces d’IA, ce qui affaiblirait, selon elle, la stratégie de déréglementation du gouvernement en matière d’IA.
Parallèlement, OpenAI s’est associé à Google Gemini pour fournir des services à environ trois millions de militaires américains. Une version spécifique de ChatGPT sera utilisée pour analyser des documents, générer des rapports et soutenir la recherche. L’utilisation de l’IA par l’armée américaine se diversifie donc, avec des applications allant de la synthèse de données au contrôle de drones autonomes.
Pour en savoir plus sur les fluctuations du marché des logiciels, consultez cet article. Les inquiétudes concernant l’impact de l’IA sur le monde sont également abordées dans ce rapport.