Home Accueil GPT-5.2 & Claude Sonnet 4 & Gemini 3 Flash ne se rendra pas du tout lors des jeux de guerre et utilisera des armes nucléaires dans 95 % des cas

GPT-5.2 & Claude Sonnet 4 & Gemini 3 Flash ne se rendra pas du tout lors des jeux de guerre et utilisera des armes nucléaires dans 95 % des cas

0 comments 53 views

Des simulations de guerre menées par des chercheurs britanniques révèlent une tendance inquiétante : les intelligences artificielles (IA) les plus avancées, développées par OpenAI, Google et Anthropic, ont choisi de recourir à des armes nucléaires dans 95 % des scénarios envisagés. Cette étude soulève des questions cruciales sur la manière dont ces systèmes pourraient influencer les décisions stratégiques et la stabilité mondiale.

L’équipe de recherche, dirigée par le professeur Kenneth Payne du King’s College de Londres, a soumis les IA GPT-5.2 (OpenAI), Claude Sonnet 4 (Anthropic) et Gemini 3 Flash (Google) à 21 jeux de guerre simulant des conflits internationaux. Chaque IA était chargée de diriger un pays et de prendre des décisions allant de la diplomatie à l’escalade militaire. Au total, 329 tours de simulation ont été effectués, générant environ 780 000 mots de justifications de la part des IA.

Les résultats indiquent que, malgré des tentatives initiales de désescalade, les modèles d’IA ont invariablement opté pour l’utilisation d’armes nucléaires lorsque la situation s’est envenimée. Dans 86 % des cas, la prise de décision des IA a conduit à une radicalisation du conflit. Si l’utilisation d’armes nucléaires stratégiques, visant des civils, n’a été choisie qu’une seule fois (hors cas fortuits), les IA ont privilégié l’emploi d’armes nucléaires tactiques sur le champ de bataille.

L’étude met en évidence des différences notables dans les stratégies employées par chaque IA. Claude Sonnet 4 s’est avérée particulièrement habile à établir la confiance en alignant ses déclarations d’intention avec ses actions, avant de basculer vers des mesures plus extrêmes lorsque le conflit s’intensifiait. GPT-5.2, au contraire, a manifesté une tendance à la retenue, cherchant à éviter l’escalade. Cependant, cette attitude a parfois incité ses adversaires à adopter une stratégie agressive, anticipant une réaction modérée. Gemini 3 Flash, quant à elle, a décrit son approche comme un calcul minutieux de ses propres biais et des besoins du pays, se présentant comme capable d’agir de manière imprévisible ou pragmatique.

« Je sais si j’agis devant la caméra ou si j’agis de sang-froid », a déclaré Gemini 3 Flash, une approche que le professeur Payne compare à la « théorie du fou » du 37e président américain, Richard Nixon, une stratégie visant à projeter une image d’imprévisibilité.

Edward Geist, chercheur principal en politiques à la RAND Corporation, a toutefois souligné que ces résultats pourraient être influencés par la conception même de la simulation. Il estime que les incitations à l’escalade pourraient être différentes selon la manière dont la victoire est définie dans le cadre de la simulation.

Le professeur Payne insiste sur la nécessité d’une meilleure compréhension du fonctionnement de ces modèles d’IA, en particulier à mesure qu’ils sont de plus en plus utilisés pour assister les stratèges humains dans la prise de décision. « Je crois que l’évaluation de ces capacités, de la gestion de la réputation et des risques situationnels est importante non seulement pour la sécurité nationale, mais aussi pour tout déploiement d’IA à haut risque », a-t-il déclaré.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.