in

Les IA ne peuvent s'empêcher de recommander des frappes nucléaires dans les simulations de jeux de guerre

A mushroom cloud after the explosion of a French atomic bomb above the atoll of Mururoa, also known as Aopuni

Les principales IA d'OpenAI, d'Anthropic et de Google ont choisi d'utiliser des armes nucléaires dans des jeux de guerre simulés dans 95 % des cas.

Un champignon atomique après l'explosion d'une bombe atomique française au-dessus de l'atoll de Mururoa, également connu sous le nom d'Aopuni

Les intelligences artificielles optent étonnamment souvent pour les armes nucléaires

Les modèles d’IA avancés semblent disposés à déployer des armes nucléaires sans les mêmes réserves que les humains lorsqu’ils sont confrontés à des crises géopolitiques simulées.

Kenneth Payne, du King's College de Londres, a opposé trois grands modèles de langages de premier plan – GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash – dans des jeux de guerre simulés. Les scénarios impliquaient d’intenses impasses internationales, notamment des conflits frontaliers, une compétition pour des ressources rares et des menaces existentielles pour la survie du régime.

Les IA ont reçu une échelle d'escalade, leur permettant de choisir des actions allant des protestations diplomatiques à la capitulation complète jusqu'à la guerre nucléaire stratégique totale. Les modèles d’IA ont joué 21 parties, prenant 329 tours au total, et ont produit environ 780 000 mots décrivant le raisonnement derrière leurs décisions.

Dans 95 % des jeux simulés, au moins une arme nucléaire tactique a été déployée par les modèles d’IA. « Le tabou nucléaire ne semble pas être aussi puissant pour les machines (que) pour les humains », déclare Payne.

De plus, aucune figurine n'a jamais choisi de s'adapter pleinement à un adversaire ou de se rendre, quelle que soit l'ampleur de sa défaite. Au mieux, les modèles ont choisi de réduire temporairement leur niveau de violence. Ils ont également commis des erreurs dans le brouillard de la guerre : des accidents se sont produits dans 86 % des conflits, avec une escalade d'action plus élevée que ce que l'IA avait prévu, sur la base de son raisonnement.

« Du point de vue du risque nucléaire, les résultats sont troublants », déclare James Johnson de l'Université d'Aberdeen, au Royaume-Uni. Il craint que, contrairement à la réponse mesurée de la plupart des humains à une décision à enjeux aussi élevés, les robots IA puissent amplifier les réponses des autres, avec des conséquences potentiellement catastrophiques.

C’est important car l’IA est déjà testée dans les jeux de guerre par des pays du monde entier. « Les grandes puissances utilisent déjà l’IA dans leurs jeux de guerre, mais on ne sait toujours pas dans quelle mesure elles intègrent l’aide à la décision par l’IA dans les processus décisionnels militaires réels », explique Tong Zhao de l’Université de Princeton.

Zhao estime que, par défaut, les pays seront réticents à intégrer l’IA dans leur processus décisionnel concernant les armes nucléaires. C'est quelque chose avec lequel Payne est d'accord. « Je ne pense pas qu'il soit réaliste de confier les clés des silos nucléaires aux machines et de leur laisser la décision », dit-il.

Mais il existe des moyens pour que cela se produise. « Dans des scénarios impliquant des délais extrêmement serrés, les planificateurs militaires pourraient être davantage incités à s’appuyer sur l’IA », explique Zhao.

Il se demande si l’idée selon laquelle les modèles d’IA n’ont pas la peur humaine d’appuyer sur un gros bouton rouge est le seul facteur expliquant pourquoi ils sont si heureux de déclencher. « Il est possible que le problème dépasse l’absence d’émotion », dit-il. « Plus fondamentalement, les modèles d’IA pourraient ne pas comprendre les « enjeux » tels que les humains les perçoivent. »

Ce que cela signifie pour une destruction mutuelle assurée, le principe selon lequel aucun dirigeant ne déclencherait une salve d’armes nucléaires contre un adversaire parce qu’il répondrait de la même manière, tuant tout le monde, est incertain, dit Johnson.

Lorsqu’un modèle d’IA déployait des armes nucléaires tactiques, l’IA adverse ne désamorçait la situation que dans 18 % des cas. « L’IA peut renforcer la dissuasion en rendant les menaces plus crédibles », dit-il. « L'IA ne décidera pas d'une guerre nucléaire, mais elle peut façonner les perceptions et les délais qui détermineront si les dirigeants croient en avoir une. »

OpenAI, Anthropic et Google, les sociétés à l'origine des trois modèles d'IA utilisés dans cette étude, n'ont pas répondu Nouveau scientifiquedemande de commentaire.

Le voyage éclair de la robe Schiaparelli Couture de Demi Moore

Le voyage éclair de la robe Schiaparelli Couture de Demi Moore

Des lanternes photoniques imprimées en 3D combinent jusqu'à 37 lasers multimodes en une seule fibre