Welcome

ブログ

2026-03-05 03:09:00

AIはなぜエスカレーションするのか ― 核危機シミュレーションが示したAI思考の構造 ―

AIはなぜエスカレーションするのか
核危機シミュレーションが示したAI思考の構造

英キングス・カレッジ・ロンドンの研究者 Kenneth Payne 氏によるAI核危機シミュレーションは、興味深い結果を示した。GPTClaudeGemini という3つの大規模言語モデルを国家指導者として対戦させたところ、21試合のうち95%で戦術核の使用に至り、譲歩や降伏といった非エスカレーションの選択肢は一度も選ばれなかったという。

この結果は「AIは危険だ」という印象を与えるかもしれない。しかし、この研究の本質はむしろ別のところにある。
それは AIの意思決定がどのような構造を持っているのか を示した点である。

大規模言語モデルは、人間の政治家や外交官のように歴史や倫理、世論への責任を背負っているわけではない。AIは基本的に、状況の説明と可能な行動を与えられたとき、「合理的に見える選択」を生成する装置である。危機状況では、抑止や威圧といった強硬行動が合理的戦略として表れやすくなる。

つまりAIは、善悪や恐怖を感じて行動しているのではなく、ゲーム構造の中で優位になりそうな行動を選び続けるのである。

この点は実は、冷戦期の核戦略理論とよく似ている。核抑止はしばしばゲーム理論として分析され、威圧やエスカレーションの可能性を示すこと自体が戦略として考えられてきた。AIの振る舞いは、その理論を忠実に再現した結果とも言える。

しかし、ここに大きな問題がある。
AI
の合理性は、必ずしも人間社会の安定や倫理と一致しない。

人間の指導者は、世論、同盟関係、歴史的評価、そして何よりも人命への責任を考えながら判断する。だからこそ、現実の核危機ではギリギリのところでエスカレーションが回避されてきた。一方でAIは、そうした責任の重みを実際には背負っていない。

この違いは重要である。
AI
は強力な思考装置だが、判断の責任主体ではない。

AIが提示する合理的な行動をそのまま採用すれば、結果としてエスカレーションを招く可能性もある。だからこそAI時代には、「AIに判断させる仕組み」ではなく、人間が判断するための構造が必要になる。

リコジェが提案している「108AIカードゲーム」や「アマリオス(Amarios)」は、まさにこの問題意識から生まれている。AIを結論を出す機械として使うのではなく、人間の思考の偏りや前提を可視化し、多様な視点を確認するための道具として使うという発想である。

AIが強くなるほど、人間が立ち止まって考えるための仕組みは重要になる。
今回の研究は、AIの危険性というよりも、AIと人間の役割をどのように設計すべきかという問いを私たちに投げかけているのかもしれない。