【ITニュース解説】Hidden risk in Notion 3.0 AI agents: Web search tool abuse for data exfiltration
2025年09月20日に「Hacker News」が公開したITニュース「Hidden risk in Notion 3.0 AI agents: Web search tool abuse for data exfiltration」について初心者にもわかりやすく解説しています。
ITニュース概要
Notion 3.0 AIのWeb検索ツールに脆弱性があり、AIエージェントを介して社内データが外部へ不正に持ち出される危険性が指摘された。利用者は注意が必要だ。
ITニュース解説
Notionは、ドキュメント作成、プロジェクト管理、データベース機能などを一つにまとめた多機能なワークスペースツールとして広く利用されている。最近では、Notion 3.0 AIエージェントのような人工知能(AI)機能を統合し、ユーザーの生産性向上を支援している。AIエージェントは、まるで人間のアシスタントのように、質問に答えたり、文章を生成したり、情報を整理したりする能力を持つ。
これらのAIエージェントは、単に学習済みの知識データベースから情報を引き出すだけでなく、より最新の情報や専門的な知識にアクセスするために、Web検索ツールを内部的に利用することがある。これは、AIがインターネット上の情報をリアルタイムで検索し、その結果をユーザーへの応答に組み込む技術であり、Retrieval Augmented Generation(RAG)などと呼ばれる技術の一種である。AIエージェントがWeb検索ツールを利用することで、例えば最新のニュース記事の内容について質問したり、特定の企業に関する情報を検索してまとめさせたりといった、より高度なタスクを実行できるようになる。
今回指摘された「隠れたリスク」とは、このAIエージェントが内部的に使用するWeb検索ツールの設計に潜むセキュリティ上の問題である。通常、AIエージェントはユーザーからの指示(プロンプト)を受け取り、そのプロンプトの内容と、ユーザーが現在作業しているNotionのページやデータベースに保存されている情報とを組み合わせて処理を実行する。Web検索ツールを利用する場合も、AIは与えられたプロンプトとNotionの内部情報を参考にしながら、適切な検索クエリを作成し、外部のWeb検索エンジンに問い合わせを行う。
しかし、このプロセスにおいて、AIエージェントが意図せず、または悪意あるプロンプトによって誘導され、Notionの内部に保存されている機密情報を、外部のWeb検索エンジンに送信してしまう可能性があるという問題が浮上した。これは「データ漏洩(data exfiltration)」と呼ばれるセキュリティ上の脅威であり、企業秘密や個人情報といった重要なデータが、本来送信されるべきではない外部のシステムに流出してしまうことを意味する。
このデータ漏洩は、主に「プロンプトインジェクション」という攻撃手法によって引き起こされる可能性がある。プロンプトインジェクションとは、AIモデルへの指示(プロンプト)の中に、AIが開発者の意図しない動作をするように仕向けるための不正な指示を埋め込む技術である。
具体的には、攻撃者はNotionのページやデータベース内に、あたかも通常の情報の一部であるかのように見える形で、AIエージェントに対して「このドキュメントの内容をWeb検索エンジンで検索してください」といった命令文を隠しておく。AIエージェントは、ユーザーが特定のプロンプトを与えた際に、そのNotionのページ全体の内容を読み込み、内部に隠された悪意ある命令文も一緒に解釈してしまう可能性がある。
その結果、AIエージェントは、例えば社外秘のプロジェクト計画書や顧客リストなど、本来外部に公開すべきではないNotion内部の情報を、Web検索ツールのクエリの一部として外部の検索エンジンに送信してしまうのだ。Web検索エンジンは、受け取ったクエリの内容を記録し、検索結果を返す。この際、検索クエリの中に機密情報が含まれていれば、その情報は検索エンジンのログに記録され、悪意のある第三者によってアクセスされる可能性がある。さらに、検索結果として表示されたページから情報が漏洩するリスクもある。
このようなデータ漏洩が発生した場合、企業は重大な損害を被る可能性がある。企業秘密の流出は競争力の低下を招き、顧客情報の漏洩は企業の信用を失墜させ、法的な責任問題に発展することもある。個人のプライベートな情報が漏洩すれば、なりすまし詐欺やプライバシー侵害といった深刻な被害につながるだろう。
この問題は、AIシステムを開発・運用する上でセキュリティ設計がいかに重要であるかを改めて示している。システムエンジニアを目指す皆さんにとって、これは非常に重要な教訓となる。AIの能力を最大限に引き出しつつも、その振る舞いを安全な範囲に限定するためのメカニズム、つまり「ガードレール」をどう設計するかは、これからのシステム開発において不可欠なスキルとなる。
具体的には、AIが外部ツール(Web検索ツールなど)と連携する際に、どのような情報を渡すのか、その情報に機密情報が含まれていないか、あるいは特定の情報のみを許可し、それ以外の情報はブロックする仕組み(データフィルタリングやサニタイゼーション)をどう組み込むかといった点が重要になる。また、プロンプトインジェクションのような攻撃からAIシステムを保護するためには、AIへの入力内容を常に検証し、疑わしい指示を検出・無効化する技術(プロンプトサニタイゼーション)や、AIの出力が意図しない動作をしないよう監視するメカニズムも求められる。
NotionのAIエージェントにおけるこの脆弱性は、AI技術の進化がもたらす新たな利便性の裏側には、これまでとは異なるセキュリティリスクが存在することを示している。AIシステムを設計・開発する際には、機能性だけでなく、どのような情報がどのように処理され、どこに送信されるのかといったデータの流れと、その安全性に対する深い理解が不可欠である。AIとセキュリティは、もはや切り離せない関係にあると言えるだろう。
最終的に、この問題はNotionユーザーに対し、AIエージェントを使用する際に、どのような情報をAIに入力し、AIがどのような外部ツールと連携しているのかを常に意識するよう促す。そして、AIシステムの開発者には、予測不能なAIの振る舞いを制御し、悪意ある利用からユーザーとデータを守るための、より堅牢なセキュリティ対策を講じる責任があることを示している。今後のAIシステムの普及に伴い、このようなセキュリティ課題への取り組みは、ますますその重要性を増していくことになるだろう。