top of page
IMG_0546.JPG

AIに頼りすぎるとバカになるのか?——14本の研究レビューで見えてきたこと:2025/05/11

  • 執筆者の写真: 晋次 宮田
    晋次 宮田
  • 2025年5月11日
  • 読了時間: 5分

ChatGPTなどのAIによる対話システムは、ビジネスの現場だけではなく、教育の現場にも広がっています。「学生がChatGPTを使って論文やレポートを作成してそのまま提出した」などについての問題提起がなされるようになっているのを見かけたことがあるかもしれません。

そんな中、以下のように考えたことがある人もいるのではないでしょうか?

「AIって、使いすぎると考える力がなくなるんじゃないの?」

これをちゃんと証明した研究ってあるのかな?と疑問に思って調べたところ、2024年に発表されたシステマティック・レビュー※がありました。

このレビューをもとに、AIが人間に与える思考力への影響について、考えてみたいと思います。

The effects of over-reliance on AI dialogue systems on students' cognitive abilities: a systematic review 日本語訳:AI対話システムへの過度な依存が学生の認知能力に与える影響

(※システマティック・レビュー:たくさんある研究を集めて、きちんとルールを決めて、まとめて読み比べる方法)



「AIでバカになる」は本当か?


論文のタイトルは「The effects of over-reliance on AI dialogue systems on students’ cognitive abilities: a systematic review」。直訳すると「AI対話システムへの過度な依存が学生の認知能力に与える影響」。かなり強めのタイトルですね。

本文では、「AI依存は意思決定力・批判的思考・分析的思考に悪影響を与える」という表現が繰り返されています。(詳細は論文を読んでみてください)

“Our findings indicate that over-reliance... impacts cognitive abilities.”(AIへの依存が認知能力に影響を与える)

ただし、この論文自体は実験ではなく、文献レビューという点です。つまり、過去に発表された研究論文をまとめて傾向を分析するスタイルです。



14本の研究は何を言っていたのか?


このレビューでは、2017〜2023年に発表された英語論文の中から、「生成AIを含む対話システムを教育・研究分野で使った事例」に関する14本の文献を分析しています。多くの文献の中から一定の基準で14本を抽出したとのことなので、「AIの利用による人間の思考力等への影響」については、やはり多くの人が気にして、研究をしているということがわかります。

今回の文献で選ばれた14本の研究をざっとみたところ、「AIを使ったことで認知能力が統計的に有意に下がった」と実証した研究はほぼありませんでした。


🔳質的調査とは?

14本の研究の多く質的調査でした。質的調査とは、簡単に言うと「人の声や気持ちを、“数字じゃなくて言葉”でじっくり調べる方法」と言えます。

例えば「ChatGPTは本当に勉強の役に立つのか?」を学生に聞いてみたとします。

  • Aさん「わからない単語を聞けるのが便利!」

  • Bさん「でも使いすぎると、自分で考えるクセがなくなるかも…」

  • Cさん「レポートの構成を考える助けにはなるよ」

こういう生の声・本音・具体例を集めて、共通点や違いを見つけていくのが「質的調査」です。

14本の研究から見えてきた「共通の声」は、例えば以下のようなものでした。

  • インタビュー:「AIを使うと考えるのをやめてしまいそう」

  • 自由記述:「便利だけど、自分のオリジナリティが消えそう」

  • 教員の所感:「盗用が増えて困っている」

今回のレビューは、「14本の質的調査が共通で懸念を表明していることをさらに集積したもの」なので、「AIへの依存が認知能力に影響を与える」と言う表現になったのだと思います。


🔳統計的な証明はないが?

統計的な優位性を述べていませんが、このような研究は、統計では拾えない“現場のリアル”を掘り起こす有益な手段です。そういう意味では、今回のレビューは「警告」として重要な役割を果たすと言えそうです。



14本の論文が懸念していた“中身”とは?


14本の文献の懸念点として共通して挙げられていたのは、以下の点です。

  1. ハルシネーション(もっともらしい誤情報)

  2. アルゴリズムバイアス(偏見を含む出力)

  3. 盗用(AI出力をそのまま提出)

  4. プライバシー侵害(個人情報の学習・流出リスク)

  5. ブラックボックス問題(出力の根拠が不透明)

これらは、学生が「AIを信じすぎること考える力が使われなくなる可能性があるのでは」という懸念に紐づいていると思います。



AI時代に必要なのは「疑う力」


今回のレビューでは、「AIへの依存は、重要な認知能力の劣化につながりうる」と書かれていますが、大事なのは、シンプルにAIの出力を鵜呑みにしないことかと思います。

レビューの中でも検証されている「批判的思考」は、すなわち、情報の正確さ・出典・バイアスを自分でチェックする力です。批判的思考を通さず、ただただ誤った情報が含まれる可能性のあるAIの出力を垂れ流すと、世の中に「もっともらしく書かれたゴミ」が散らばる事になるので、それはそれで非常に困った問題になります。

とはいえ、学習に困難を抱える学生にとって、AIは“救い”にもなり得ます。レビューでも、「AIが自信をくれた」「AIが書くきっかけをくれた」という肯定的な意見もありました。

ということは、AIは適切に使えば、教育的な補助具として機能するという事になります。



私個人は、むしろAIとの会話が増えると「深掘りできる」と感じています。


このレビューが提示する方向性は

  • AIリテラシー教育を導入する

  • AIを“考える補助”として設計する

  • ファクトチェックと出典検証の訓練を行う

というものでした。AIは「答えを出す」道具ではなく、「問いを深める」パートナーとして使うべきという姿勢が、教育現場でAIを取り入れる際の基本姿勢になると考えをこのレビューは示してくれました。

私は毎日AIと会話(テキストでも音声でも)をしますが、「なぜそう言えるのか」を深掘りする相手としてはAIは凄く良いパートナーだと感じています。「むしろ LLM登場後の方が、物事を深ぼることが増えた」と言う感覚を持っている人は私を含めて、結構いるのではないかなと思います。なんせいくらしつこく聞いたり壁打ちしたりしても、嫌な顔一つしないで答えてくれますからね、AIは。

使い方次第で、今回のレビューが提示した懸念は、気にしなくても良いものと言えるかもしれませんね。


書き手

名前:Shindy Miyata

所属:SHARE Security(

セキュリティエンジニア


 
 
bottom of page