Le Pentagone a eu recours à l’intelligence artificielle Claude, développée par la société Anthropic, lors d’une opération secrète visant à appréhender le président vénézuélien Nicolás Maduro le mois dernier. Cette utilisation soulève des questions sur l’engagement d’Anthropic en faveur d’une IA responsable et sécurisée.
Selon des sources proches du dossier, l’armée américaine a intégré Claude à son dispositif technologique lors du raid mené contre Maduro. Ce dispositif était fourni par Palantir, une entreprise américaine spécialisée dans l’analyse de données, déjà largement utilisée par le gouvernement américain.
Des interrogations internes ont été déclenchées suite à cette opération. Des représentants d’Anthropic auraient contacté Palantir pour obtenir des précisions sur la manière exacte dont Claude avait été employé durant l’intervention.
À ce stade, les détails précis de l’utilisation de l’IA restent confidentiels. Cependant, cette révélation met en lumière la complexité croissante de l’implication des entreprises technologiques dans les opérations militaires et les enjeux éthiques liés à l’utilisation de l’intelligence artificielle dans un contexte opérationnel.