top of page
IMG_0546.JPG

そのレポート、本当に“自分で書いた”と言えますか?──ChatGPT時代の学生の提出物:2025/05/13

  • 執筆者の写真: 晋次 宮田
    晋次 宮田
  • 2025年5月13日
  • 読了時間: 4分

先日の記事で、慶應大学が学生に向けた課題の中にPrompt Injectionを仕込み、学生がAIを利用したかどうかの検出に利用した件について触れました。

大学や高校のレポート、卒業論文、試験に、ChatGPTの利用は広がっていると想像できます。それに伴って、「AIを使ったらズルじゃないの?」とか「むしろAIをうまく使えるようにするべきでは?」など、様々な意見・考えが、教員・学生の中に存在していることでしょう。

おそらくすでに多くの教育機関で、AI利用に関するルール整備を終え、学生向けにガイドラインを提示していることでしょう。(無いと学生も困っちゃいますからね)


  • 生成系AIツール利用に関する学術活動ガイドライン

    • 対象ツールの定義、使用の可否、許可される使用例、禁止される使用例、申告義務の範囲、評価への影響、ワークショップ・研修、などを学生に提示

  • AI利用自己評価チェックリスト

    • どの部分でどのようにAIを利用したかをトレースして提供できるかなどのチェックリスト


今回は、ChatGPTの法学教育・試験・著作権における影響を扱った論文『Navigating the Impact of ChatGPT/GPT4 on Legal Academic Examinations』を紹介します。


Navigating the Impact of ChatGPT/GPT4 on Legal Academic Examinations: Challenges, Opportunities and Recommendations 日本語訳:ChatGPT・GPT-4は法学の試験をどう変えるのか?──課題と可能性、そして教育現場への提言


ChatGPTが“役に立たない”法学試験の構造


論文によると、ドイツの法学教育では、「仮説 → 要件 → 事実のあてはめ → 結論」という厳密な構造(Aufbauschema)で解答を書く必要があるため、ChatGPTはこのような三段論法的な推論には対応が難しく対応ができない、とあります。

(三段論法:「AならばB、BならばC、だからAならばC」といった論理構造で、法律の答案ではよく使われる形式)

「プロンプトを工夫すれば再現できるのでは?」と思う方もいると思います。実際、構造を指定して入力すれば、形式的にはかなり正確な出力が得られます。

しかしそのようにプロンプトを工夫して作られた文章は、構造をなぞっているだけで「意味や立場を理解して考えているわけではない」ため、論理の筋が合っていても、その内容が法律的に正当かどうかは怪しくなります。

法学試験の観点において、どのような点で、人間とAIが異なるのかをChatGPTに表にしてもらいました。

観点

ChatGPT(LLM)

人間の法的思考

推論の源泉

文脈からパターンを抽出(統計的生成)

意図と理解に基づく論理的・倫理的判断

一貫性の管理

局所的に整合性のある出力を生成

全体構造に対する意識と整合性の保持

学説・判例の扱い

表面的に列挙しがち

評価と選択を含めて深く考察

出力の目的

もっともらしい文章を生成

正確で合理的な結論を導出

知識の背景

統計的に学習されたテキスト

意識的に理解された体系的知識

ChatGPTは「本当の意味でなぜそう考えるのか?」や、「どちらの意見が大事か?」を自分で判断することは出来ないため、それらしいものは生成できても、人間のように深く考えられてアウトプットを出すことは難しいと言うことになるのでしょう。



学校はどこまでルールを作るべきか?


論文では、学校側が「AIの使い方をどう定義するか」が重要だとしています。

  • どこまでの使用が許可されるのか?

  • 使用したことはどう開示すべきか?

  • 使用の痕跡がない場合、どう証明・判断するのか?

このような疑問に対して、教育機関はルールとして明示する必要があります。とはいえ最終的に「これは自分の成果と言えるか?」を判断するのは、学生本人に委ねられてしまうのですが。

ChatGPTが出てきてから数年が経つので、冒頭にも書きましたが、この辺りの整備はだいぶ進んでいるのでは無いかと想像しています。



おわりに


AIが出てきて以降、求められているものが急激にシフトした気がしています。「どうAIを操作し、どこまで責任を持って活用するか?」という思考力・倫理力・技術力といったものが求められていると感じています。なので、「そのレポートは自分で書いたのか?」という問いは正直意味が無く、「自分の知識・判断・工夫がそこにあるのか?」という問いに変化しているわけです。教育機関はそれを評価する必要が出てきます(元々そうだとは思いますが)。

今後は、AIをうまく活用して、深く思考することに時間をかける学生と、何にも考えないでAIに全て任せる学生に分かれることになると思いますが、思い返せば、私が学生の頃は「レポート出せばOK」と言う講義が結構ありました。なので「同じ学部学科のサークルの先輩から元ネタをもらう」と言う事をやっている人も沢山いました。なので、AIがあろうとなかろうと、自分で考える人は考えるし、考えない人は考えないわけですね。


書き手

名前:Shindy Miyata

所属:SHARE Security

セキュリティエンジニア


 
 
bottom of page