top of page
IMG_0546.JPG

AIと人間の区別がつかなくなった日──GPT-4.5が通過したチューリングテストとは何か:2025/05/29

  • 執筆者の写真: 晋次 宮田
    晋次 宮田
  • 2025年5月29日
  • 読了時間: 3分

2025年3月、カリフォルニア大学サンディエゴ校の研究者が公開した以下の論文が、大きな話題を呼びました。

Large Language Models Pass the Turing Test 日本語訳:大規模言語モデルがチューリングテストを通過

この研究は、AIが本物の人間と区別がつくかどうかを試す「チューリングテスト」を、最新のLLMを含むAIで実施したものです。そしてその結果、GPT-4.5というAIが「人間より人間らしい」と評価されました。



チューリングテストってなに?


1950年、数学者アラン・チューリングは「機械に知能はあるか?」という問題に対して、一つの方法を提案しました。テキストチャットで人間と機械が会話し、審査員がどちらが人間かを当てられなければ、機械は知能を持つとみなす。この方法が、チューリングテストです。

今回の研究は、このオリジナル形式に忠実に、三者間構成で行われました。1人の尋問者が、1人の人間と1体のAIの両方と同時に5分間テキストチャットを行い、どちらが人間かを当てるという形式です。



研究に参加したAIたち


実験には、以下の4つのAIモデルが使われました。


  • GPT-4.5(OpenAI):最新かつ高性能な大規模言語モデル。

  • LLaMa-3.1-405B(Meta):Meta社が開発した超大規模モデル。

  • GPT-4o(OpenAI):現行ChatGPTに相当する汎用モデル。

  • ELIZA:1960年代に開発されたルールベースの会話プログラム。


さらに、各AIには2種類のプロンプトが与えられました。

  • 人格設定なし:最小限の指示(人間らしく話して)のみ。

  • 人格設定あり:内向的でネットスラングを使う若者という詳細な性格設定。



実験の結果──最も人間らしかったのはGPT-4.5の人格設定あり


研究では、UCサンディエゴの学生(126人)と、オンライン調査サイトProlificの一般成人(158人)が参加し、計1,023回の対話が実施されました。

その結果、以下のように「AIが人間と誤認された率」が示されました

モデル

プロンプト

UCSD(学生)

Prolific(一般)

GPT-4.5

人格設定あり

69.2%

75.5%

GPT-4.5

人格設定なし

27.7%

42.1%

LLaMa-3.1-405B

人格設定あり

45.4%

64.7%

LLaMa-3.1-405B

人格設定なし

26.4%

47.1%

GPT-4o

人格設定なし

16.7%

25.4%

ELIZA

該当なし

18.3%

27.4%

特にGPT-4.5(人格設定あり)は、どちらの参加者グループにおいても本物の人間より人間らしいと判定されるという結果となりました。



なぜGPT-4.5は「人間超え」だったのか?


1. キャラクター設定による自然な模倣

GPT-4.5には、内向的でネット文化に詳しく、スラングを使う若者という詳細な人格が与えられていました。これにより、実際の若年層のような受け答えができ、尋問者に同世代っぽさを感じさせることができました。


2. 不完全さの演出

多くの尋問者は、タイポ、曖昧な回答、ちょっとした誤りなどを人間らしさの証拠として評価していました。GPT-4.5は、こうした要素も含めて巧みに演出していたのです。


3. 判定基準が感覚に依存していた

尋問者の多くは、「雰囲気が人間っぽい」「自然な話し方だった」「感情があるように思えた」といった印象で判定していました。論理や知識ではなく、印象による判断が大半だったのです。



「人間らしさ」=「知能」ではない


研究チームは、「AIが人間らしく見せかける能力(欺瞞力)を持った」という点について言及しています。

GPT-4.5は、人間のように思わせる能力に長けていましたが、それは知能や理解力とは別の次元の能力です。これは、単なる模倣ではなく、社会的に意味のある代替可能性を持つことを意味している可能性があります。(いまちょっとサイバーチックな音楽を聴きながらこの文章を書いているのでちょと怖いです。)



偽の人間が社会に溶け込む未来


この研究結果は、今後AIが「偽の人間」として、さまざまな場面で自然に溶け込んでいく可能性を指し示しています。便利になる面もあれば、もしかしたら怖い側面もあるかもしれません。

  • SNSやマッチングアプリでの会話相手が本当に人間かどうかわからない

  • 企業のカスタマーサポートや営業会話がAIでも気づかれない

  • AIによる詐欺やなりすましが、ますます見抜きにくくなる

うーん。


書き手

名前:Shindy Miyata

所属:SHARE Security

セキュリティエンジニア


 
 
bottom of page