Publié le 25 février 2026 à 00:46:00. Le Pentagone et la société d’intelligence artificielle Anthropic sont au bord d’une rupture, Washington menaçant d’utiliser des pouvoirs d’urgence pour forcer l’entreprise à partager sa technologie, tandis qu’Anthropic s’inquiète de l’utilisation potentielle de son IA pour des armes autonomes ou la surveillance de masse.
- Le secrétaire américain à la Défense, Pete Hegseth, a donné à Anthropic jusqu’à la fin de la semaine pour accepter un accès complet à son modèle d’IA, Claude.
- Anthropic pourrait abandonner son contrat de 200 millions de dollars avec le Pentagone si ses préoccupations éthiques ne sont pas prises en compte.
- Le Pentagone pourrait invoquer la Loi sur la production de défense (DPA) pour obtenir le contrôle des technologies d’Anthropic.
Les tensions montent entre le département de la Défense américain et Anthropic, une entreprise pionnière dans le domaine de l’intelligence artificielle. Lors d’une réunion tendue mardi, le secrétaire à la Défense, Pete Hegseth, a lancé un ultimatum à Dario Amodei, cofondateur et PDG d’Anthropic : soit l’entreprise accepte de donner un accès complet à son modèle d’IA, Claude, aux forces armées, soit elle s’expose à des sanctions sévères.
Selon des sources proches des négociations, Hegseth a menacé d’invoquer la Loi sur la production de défense (DPA), une loi d’urgence qui permet au gouvernement américain de contrôler les entreprises et leurs produits au nom de la sécurité nationale. Cette loi avait déjà été utilisée pendant la pandémie de Covid-19 pour pallier les pénuries de matériel médical.
Anthropic, qui a décroché un contrat de 200 millions de dollars avec le Pentagone en juillet dernier pour développer des capacités d’IA, s’est fermement opposée à certaines utilisations de sa technologie. L’entreprise craint que Claude ne soit utilisé pour la surveillance de masse des citoyens américains ou pour alimenter des armes entièrement autonomes, capables de prendre des décisions létales sans intervention humaine.
« Nous continuons à maintenir des conversations de bonne foi à propos de notre politique d’utilisation pour garantir qu’Anthropic puisse continuer à soutenir la mission de sécurité nationale du gouvernement conformément à ce que nos modèles peuvent faire de manière fiable et responsable. »
Anthropic, communiqué
Dario Amodei a insisté auprès de Hegseth sur le fait que Claude ne devrait pas être utilisé pour alimenter des armes autonomes ou pour effectuer une surveillance de masse des Américains, selon des personnes ayant participé à la réunion. Il a également souligné que les limitations demandées par Anthropic n’affecteraient pas le travail du département de la Défense.
Le Pentagone, de son côté, insiste sur le fait que l’armée a besoin d’une liberté totale pour utiliser les outils d’IA, dans le respect de la loi. Les responsables de la défense affirment que d’autres entreprises du secteur ont accepté ces conditions, au moins pour les travaux non classifiés. Ils soulignent également que la concurrence avec la Chine, qui investit massivement dans l’IA militaire, exige une accélération du développement de ces technologies.
Les tensions entre Anthropic et le Pentagone interviennent après l’intensification des critiques à l’égard de l’entreprise par les responsables du département de la Défense. Récemment, des responsables ont évoqué l’utilisation de l’IA d’Anthropic lors d’une opération visant à capturer le président vénézuélien Nicolás Maduro, suggérant qu’une non-conformité aux exigences du Pentagone pourrait entraîner des conséquences pour Anthropic et ses partenaires commerciaux.
Cette affaire met en lumière les dilemmes éthiques et stratégiques liés au développement et à l’utilisation de l’intelligence artificielle dans le domaine militaire. Elle soulève également la question du rôle des entreprises privées dans la définition des limites de l’utilisation de ces technologies.
Markus Schreiber – AP
Kevin Wolf – FR33460 AP