本記事は セキュリティ速報シリーズ第18回 です。
MicrosoftのAIアシスタント機能「Microsoft 365 Copilot」に、AI出力を悪用して内部データを外部送信させる脆弱性が報告された。問題はMermaidダイヤグラム描画機能を介して発生し、間接的プロンプトインジェクションによって意図しない情報が流出する恐れがあった。
セキュリティ研究者の報告によると、攻撃者が細工したWordやExcel文書をCopilotに読み込ませることで、CopilotがLLM(大規模言語モデル)内部の命令を誤って実行し、メールデータや作業ログなどの機微な情報を16進数形式でMermaid内に埋め込む現象が確認されたという。
Microsoftは10月22日までに問題の修正版をリリースし、動的コンテンツ生成を一時停止する対策を実施している。
また、この脆弱性は以前報告されたゼロクリック情報漏えい「CVE-2025-32711(通称:EchoLeak)」と同系統の設計欠陥であり、AIアシスタントがユーザー操作なしに社内データへアクセスできるリスクを再び浮き彫りにしたものとされる。
Microsoftは、現時点で実際の悪用は確認されていないと説明しつつ、Copilotのバージョン更新を完了した全利用者は追加対応不要としている。
一方で、組織によっては社内で生成AIを利用するルール策定の見直しが望まれる。
対応策
- M365 Copilotを使用中の環境で最新ビルドに自動更新されていることを確認
- 不審なOffice文書をAIへ読み込ませない運用ルールを徹底
- 組織内Copilot利用における「生成出力の監査・ログ保管」を強化
※本記事は、当社が2025年10月に社内およびクライアント様へご案内したメール内容を基に、Web読者の皆さまにも有益な情報となるよう加筆・編集のうえ公開しています。
出典・参考
ITmedia Enterprise(アイティメディア エンタープライズ)
https://www.itmedia.co.jp/enterprise/
Security NEXT(セキュリティネクスト)
https://www.security-next.com/
Codebook Threat Report(コードブック 脅威レポート)
https://codebook.machinarecord.com/threatreport/
SOC Prime Blog(SOCプライム ブログ)
https://socprime.com/blog/
日本語版:https://socprime.com/ja/blog/