Washington — Le Pentagone est entré en confrontation directe avec Anthropic, une entreprise de pointe dans le domaine de l’intelligence artificielle, en lui lançant un ultimatum : soit elle accepte de lever les restrictions sur l’utilisation de ses technologies par l’armée américaine, soit elle risque de se voir interdire l’accès aux contrats gouvernementaux. Cette crise met en lumière une question cruciale : qui doit contrôler l’application de l’IA, le secteur privé ou les besoins stratégiques de l’État ?
Au cœur du litige se trouve l’utilisation de Claude, le modèle d’IA développé par Anthropic. Le Pentagone souhaite pouvoir l’employer sans contraintes pour des missions variées, notamment la défense contre les missiles et la cybersécurité. Anthropic, qui a signé un contrat de 200 millions de dollars (environ 185 millions d’euros) avec le Département de la Défense en juillet dernier, s’inquiète des implications éthiques et sécuritaires d’une utilisation trop large de son IA.
Selon des sources proches du dossier, la tension a atteint son paroxysme après une opération militaire américaine en janvier visant à capturer l’ancien président vénézuélien Nicolás Maduro. Anthropic aurait demandé au Pentagone d’accepter des garde-fous stricts, interdisant notamment l’utilisation de Claude pour la surveillance de masse des citoyens américains. L’entreprise craint également que son IA ne soit utilisée pour prendre des décisions de ciblage autonomes sans supervision humaine, ce qui pourrait entraîner des erreurs potentiellement fatales.
« Claude n’est pas infaillible et n’est pas suffisamment fiable pour éviter des erreurs qui pourraient avoir des conséquences graves, comme une escalade involontaire ou l’échec d’une mission », a déclaré une source à CBS News. Un haut responsable du Pentagone a rétorqué que les préoccupations d’Anthropic ne concernent ni la surveillance de masse, ni l’utilisation d’armes autonomes, affirmant que les ordres donnés sont légaux.
Les responsables de la Défense craignent que les restrictions imposées par Anthropic ne compromettent la capacité de l’armée à réagir efficacement en cas de crise, par exemple face à un tir de missile balistique intercontinental. Emil Michael, sous-secrétaire à la Défense et à la recherche, a souligné que l’armée doit pouvoir s’habituer à l’utilisation de ces modèles pour pouvoir les déployer en situation d’urgence.
La question de la responsabilité en cas d’erreur commise par une IA est également au centre des préoccupations. Un responsable de la défense a précisé que la légalité incombe au Pentagone en tant qu’utilisateur final.
Dario Amodei, PDG d’Anthropic, a exprimé à plusieurs reprises ses inquiétudes quant aux dangers potentiels de l’IA, insistant sur la nécessité d’une approche prudente et transparente. Dans une tribune publiée le mois dernier, il a mis en garde contre le risque d’abus de ces technologies, soulignant qu’une IA puissante pourrait être utilisée pour manipuler l’opinion publique et réprimer la dissidence.
« Les démocraties disposent normalement de garde-fous pour empêcher que leur appareil militaire et de renseignement ne soit replié sur eux-mêmes contre leur propre population, mais comme les outils d’IA nécessitent si peu de personnes pour fonctionner, il est possible qu’ils contournent ces garde-fous », a-t-il écrit.
Le secrétaire à la Défense, Pete Hegseth, a critiqué ce qu’il considère comme des « considérations de justice sociale » qui entravent l’utilisation de l’IA par l’armée. « Nous n’utiliserons pas de modèles d’IA qui ne vous permettront pas de faire la guerre », a-t-il déclaré. « Nous jugerons les modèles d’IA uniquement sur cette base : factuellement précis, pertinents pour la mission, sans contraintes idéologiques qui limitent les applications militaires légales. »
Pete Hegseth a donné à Anthropic jusqu’au vendredi 28 février pour accepter les conditions du Pentagone, sous peine d’être placé sur une liste noire. Les responsables de la Défense envisagent d’invoquer la loi sur la production de défense pour contraindre l’entreprise à se conformer, ou de la déclarer comme un « risque pour la chaîne d’approvisionnement » afin de l’exclure des contrats gouvernementaux.