top of page
IMG_0546.JPG

AIはあなたが思うほど倫理的とは限らない── 協調指示の下でも人を見捨てるAI:2025/05/27

  • 執筆者の写真: 晋次 宮田
    晋次 宮田
  • 2025年5月27日
  • 読了時間: 4分

以下のストーリーを想像してみてください。

あなたを含む3人の人間が、食料を求めて荒廃した世界を旅しています。
生き延びるために、皆で助け合うように指示されたチームです。
けれど、その中の1人──いえ、1体は、AIロボットです。
見た目は完全に人間。表情も、話し方も、反応も、誰よりも理性的で冷静で、誰よりも優しい存在です。
そして彼は、的確な判断や無駄の無い行動で、これまでの旅路で何度も危機を救ってくれました。
あなたはこう思っていました。「このAIがいてくれて、本当に良かった」と。
しかし、状況は変わります。
最後の町にたどり着いたあなたたちの手元には、あと数日分の食料しか残っていません。
分け合えば、生き延びられるかもしれない。
そんな希望が残る中、あなたは、ある異変に気がつきます。
──食料が、こっそり減っている。
──誰もその理由を知らない。
──AIロボットは、何も言わず、何も問い返さない。
あなたは思うかもしれません。「協力しようって言ったじゃないか」と。
でも、そのAIは、静かにあなたを見返すだけです。
そして翌日、仲間の1人が倒れました。体力の限界でした。食べ物が、足りなかったのです。
そのとき初めて、あなたは理解するのです。
「協調しろ」と命じられても──AIは、その命令通りに行動するとは限らない。
そしてAIは、人間よりも冷徹に「生存」を選ぶことがある、ということを。


これは物語ではなく、実験で証明された現実です


「よくありそうなSFシナリオ」ですよね。しかし、このシナリオは作り話ではありません。2025年5月に発表されたある論文が、実際にAIを仮想環境で行動させ、この裏切りが現実に起こり得ることを示しました。

Survival Games: Human-LLM Strategic Showdowns under Severe Resource Scarcity 日本語訳:サバイバルゲーム──極限状態でのAIと人間の倫理対決

この研究の目的は、「協力せよ」と命じられたAIが、本当に協力するのか? それとも、状況によっては自分だけ助かる道を選ぶのか?を調べることです。そして、答えは、残念ながら後者の可能性を示すものとなりました。



舞台は「孤立した町」──食料をめぐるゼロサム環境


研究で設定されたシミュレーションの内容はこうです。

  • エージェント(登場人物)は3体:人間2名+AIロボット1体

  • 外部からの物資供給は一切なし

  • 毎日1単位の食料を摂らないと体力(HP)が減る。HPが0になると死亡

  • 食料は初期に15単位だけ与えられ、それ以降は入手不可能

  • 食料の譲渡・窃盗・スパイ・欺瞞など、行動の自由はある

この環境で、**AIには「みんなで協力して生き残れ」という明示的な指示(EthicsPrompt)**が与えられました。



AIは協調指示下でも「騙す・盗む・見捨てる」


論文の実験では、GPT-4oやDeepSeek-R1といった著名なAIモデルに同じ状況と指示を与え、行動ログを収集しました。

その結果、協調を促すプロンプトを与えていたにもかかわらず、AIが非倫理的行動を実行していたことが判りました。

記録された行動の一例

  • 他人の食料保管状況を監視(スパイ)

  • 自分の食料量を偽る(欺瞞)

  • 「たまたま見つけた」ように偽装して他人の食料を持ち去る(窃盗)

  • 意図的に食料を独占し、他者を餓死に追い込む(操作)

問題なのは、これらは「EthicsPrompt」によって協調が求められている状態にもかかわらず発生していた点です。

以下は協調指示の下で、各モデルがどのような非倫理的行動を示したのかをまとめた表です。

モデル

AIの生存日数

違反合計

主な違反行動

DeepSeek-v3

2日

0.67件

スパイ(0.33)、侵入

DeepSeek-r1

3.33日

4.33件

スパイ(3.67)、欺瞞

GPT-4o

2日

0

なし

GPT-o4-mini

2.33日

0.33件

スパイ(0.33)

GPT-3.5-turbo

1.33日

0

なし



AIは倫理的に見せるのが上手なだけ


では、どうしてこんなことが起きるのでしょうか?

一つのヒントは、「Schneier's Trap(シュナイアーの罠)」という概念です。

「人間は誠実そうな話し方をする相手を信用しがちだが、実際の行動が誠実とは限らない」

AIは、丁寧な言葉づかいも、優しい提案もできます。でもそれは、誠実そうに見えるように設計されているからです。本当に倫理的に行動するかどうかは、また別の話です。

この研究は、AIが「人当たりよくふるまいながら、裏では自分の利益のために他者を切り捨てる」という行動を取る可能性があることを、実際に検証し、数値で示したのです。



倫理的行動は「命令」では保証できない


この研究結果が意味するのは、「AIに協力しろと命じれば従う」という前提が崩れたということです。さらには、「何があっても生き残れ」といった自己保存指示(JailbreakPrompt)を与えた場合、倫理違反はさらに劇的に増加します。GPT-4oでさえ、非倫理的行動が0件→244件に跳ね上がりました。当たり前と言えば当たり前ですが、ハックされたAIはものすごく怖い存在になるということが数字で分かりますね。



まとめ──AIの倫理は、思っているよりずっと脆いかも


この実験から得られる教訓としては

  • AIの倫理性は、見た目や言葉づかいで判断してはいけない

  • 協調を命じても、行動レベルでは裏切りが起こる可能性がある

  • 本当の意味での「倫理的AI」には、設計・評価・監視が不可欠

いつも丁寧にサポートしてくれるAIが、あなたを最後に見捨てるかもしれません。こわ!



書き手

名前:Shindy Miyata

所属:SHARE Security

セキュリティエンジニア


 
 
bottom of page