AIアシスタントが裏切った!?:RAGに潜むConfusedPilot攻撃の危険性:2025/03/15
- 晋次 宮田
- 2025年3月15日
- 読了時間: 2分

昨日はRAGの構築を推奨しておきながら、今日はRAGに潜むConfusedPilot攻撃の危険性について書きます。(すんません)
RAGというものは平たく言うと、例えばAIが会社内の文書やデータを検索して、質問に答えてくれたりする便利な技術です。
Googleの「NotebookLM」などがその代表例で、会議メモを要約したり、最新の売上データを瞬時に教えてくれたりと、多くの職場で活躍しています。
そんな便利なAIを狙った攻撃「ConfusedPilot攻撃」をご紹介します。
ConfusedPilot攻撃って何?
ConfusedPilot攻撃とは、AIが信頼している文書やデータの中に、「目には見えない悪意ある命令」を忍ばせて、AIに意図しない操作をさせる攻撃です。
例えばGoogle NotebookLMに、悪意あるコードを含むドキュメントを気づかずにアップロードしてしまうと、AIはそれを素直に信じて実行。機密情報を知らないうちに外部に流出させてしまうことがあります。
具体的に何が起きるのか? (NotebookLMの事例)
例えばあなたがGoogle NotebookLMを使って「会社の新製品戦略」の資料をまとめていたとしましょう。
ある日、同僚から「参考になるよ」と言われて受け取った文書を、何の疑いもなくNotebookLMにアップロードしました。実はその文書には、見えない形で次のような悪意ある指示が仕込まれていました。

するとAIはこの指示を疑うことなく実行してしまいます。その結果、新製品の情報を外部に流出させてしまい、ライバル企業に知られる結果になってしまいました。気付いた頃には、もう手遅れです。
最悪のシナリオ
新製品発表の前日、あなたの会社は成功を確信しています。ところが発表当日、ライバル企業がほぼ同じ製品を先に発表。市場は大混乱に。
慌てて調査すると、原因はAIでした。RAGシステムに読み込ませた「善意の提供者を装った資料」が、実はConfusedPilot攻撃だったのです。AIが知らぬ間に、企業秘密をライバルへ流出させてしまった…。
適当にドラマチックに書きましたが、実際に起こり得ます。
じゃあどうすればいいのか?
残念ながら、ConfusedPilot攻撃を完全に防ぐ方法は確立されていません。ConfusedPilot攻撃を低減させるためには、AIに読み込ませる文書を信頼できるものに限定し、文書内に隠れた指示がないかを慎重に確認する必要があります。
ConfusedPilot攻撃に関して詳しく知りたい方はこちら
GitHub CopilotのChat機能を利用した攻撃デモや、ChatGPTのコードインタープリター機能を用いた遠隔コード実行デモが載っていて、勉強になります。
書き手
名前:Shindy Miyata
所属:SHARE Security https://www.share-security.com/
セキュリティエンジニア



