Home Sciences et technologies L’armée américaine a utilisé Claude, le modèle d’IA d’Anthropic, lors d’un raid au Venezuela, selon un rapport | IA (intelligence artificielle)

L’armée américaine a utilisé Claude, le modèle d’IA d’Anthropic, lors d’un raid au Venezuela, selon un rapport | IA (intelligence artificielle)

0 comments 49 views

Publié le 14 février 2026 à 22h54. L’armée américaine aurait utilisé Claude, un modèle d’intelligence artificielle développé par Anthropic, lors d’une opération controversée au Venezuela, soulevant des questions sur l’éthique et le respect des conditions d’utilisation de ces technologies.

  • Le département américain de la Défense aurait déployé l’IA Claude lors d’une opération visant à neutraliser Nicolas Maduro au Venezuela, une action qui a entraîné des bombardements à Caracas et fait 83 morts selon les autorités vénézuéliennes.
  • Anthropic, la société créatrice de Claude, interdit formellement l’utilisation de son IA à des fins violentes, pour le développement d’armes ou la surveillance, ce qui pose un problème de conformité.
  • Cette utilisation marque une première pour une IA dans une opération classifiée américaine, et s’inscrit dans une tendance croissante à l’intégration de l’intelligence artificielle dans les stratégies militaires.

Selon des informations révélées par le Wall Street Journal samedi dernier, l’armée américaine a eu recours à Claude, un modèle d’intelligence artificielle développé par la société Anthropic, lors d’une opération d’enlèvement de Nicolas Maduro au Venezuela. Cette révélation met en lumière la manière dont le département américain de la Défense explore et utilise l’intelligence artificielle dans ses opérations militaires.

L’opération, qui aurait impliqué des bombardements dans la capitale vénézuélienne, Caracas, a fait, selon le ministère vénézuélien de la Défense, 83 victimes. Un porte-parole d’Anthropic a refusé de confirmer ou d’infirmer l’utilisation de Claude dans cette opération, se contentant de souligner que toute utilisation de l’outil devait être conforme à ses politiques d’utilisation. Le département américain de la Défense n’a pas souhaité commenter ces allégations.

Anthropic est le premier développeur d’IA dont l’outil a été identifié comme étant utilisé dans une opération classifiée par le ministère américain de la Défense. Les détails précis de son déploiement restent flous, mais Claude est capable de traiter des fichiers PDF, de piloter des drones autonomes et d’effectuer d’autres tâches complexes.

L’utilisation de Claude s’inscrit dans le cadre d’un partenariat entre Anthropic et Palantir Technologies , une entreprise spécialisée dans l’analyse de données pour le compte du ministère américain de la Défense et d’autres agences gouvernementales. Palantir n’a pas répondu aux demandes de commentaires.

Cette affaire intervient alors que les armées américaine et israélienne déploient de plus en plus l’intelligence artificielle dans leurs arsenaux. L’armée israélienne a notamment utilisé des drones autonomes à Gaza et s’appuie sur l’IA pour identifier des cibles potentielles. L’armée américaine a également eu recours à l’IA pour des frappes en Irak et en Syrie ces dernières années.

L’utilisation croissante de l’IA dans le domaine militaire suscite des inquiétudes quant aux erreurs de ciblage et aux conséquences éthiques de la délégation de décisions potentiellement mortelles à des machines. Les critiques mettent en garde contre le risque de voir des ordinateurs déterminer qui vit ou qui meurt.

Dario Amodei, le PDG d’Anthropic, a plaidé pour une réglementation plus stricte afin de prévenir les dommages liés au déploiement de l’IA, exprimant notamment sa méfiance quant à l’utilisation de l’IA dans les opérations meurtrières autonomes et la surveillance aux États-Unis. Il a déclaré :

« Nous devons nous assurer que ces technologies sont utilisées de manière responsable et éthique. »

Dario Amodei, PDG d’Anthropic

Cette position prudente semble avoir irrité le ministère américain de la Défense. Pete Hegseth, un secrétaire adjoint à la Guerre, a déclaré en janvier que le ministère n’utiliserait pas de modèles d’IA qui ne permettraient pas de mener la guerre. Le Pentagone a annoncé en janvier qu’il collaborerait avec xAI, la société d’Elon Musk, et utilise également des versions personnalisées des systèmes Gemini et OpenAI de Google pour soutenir ses recherches.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.