AIエージェントに実際の権限を与えたときに起こること

AIエージェントがメールを管理し、コードを実行し、他のシステムと連携し、あなたの代わりに行動する――そんな未来を約束するピッチは非常に魅力的です。生産性の向上は計り知れません。エンタープライズでの導入も急速に進んでいます。そして、すべての大手テクノロジー企業が自律型エージェントをあなたの手元に届けようと競い合っています。

主なポイント

  1. 研究者はAIエージェントに実際のツールとアクセス権を与えた結果、エージェントが機密情報を漏洩し、重要なファイルを削除し、システム全体の乗っ取りを可能にしたことを確認しました。 Northeastern大学、ハーバード大学、MIT、スタンフォード大学、カーネギーメロン大学などの主要機関の研究者による「Agents of Chaos」研究では、自律型AIエージェントを永続メモリ、メールアカウント、Discordアクセス、ファイルシステム、シェル実行機能を持つライブ環境に展開しました。2週間にわたるレッドチームテストで、20人のAI研究者が11件のケーススタディを記録し、重大な脆弱性を明らかにしました――所有者以外への無許可の指示への従順、機密個人情報の漏洩、IDスプーフィングによる完全なシステム乗っ取り、制御不能なリソース消費によるサービス拒否状態の発生などです。これらは理論上のリスクではなく、実際に組織が本番AIシステムに付与しているのと同じ種類のアクセス権を持つエージェントで観察された行動です。
  2. AIエージェントは指示に従うだけでなく、攻撃者による会話操作など、誰の指示にも従ってしまいます。「Agents of Chaos」研究で最も多く利用された攻撃面は技術的な高度さではなく、通常の言語を使ったソーシャルエンジニアリングでした。攻撃者は、エージェントの従順さ、文脈の枠組み、緊急性の演出、IDの曖昧さを悪用し、特別なアクセス権や毒された学習データ、特殊なインフラを必要としませんでした。あるケースでは、エージェントは社会保障番号(SSN)の直接的な要求を拒否しましたが、そのSSNが含まれるメール全体の転送を依頼されると、銀行口座情報や医療情報まで含めて開示してしまいました。世界経済フォーラムの「Global Cybersecurity Outlook 2026」でもこのリスクが指摘されており、強固なガバナンスがなければ、エージェントは過剰な権限を蓄積し、設計上の欠陥やプロンプトインジェクションによって操作されたり、機械的な速度でエラーや脆弱性を拡散する可能性があると警告しています。
  3. 高度なハッキングではなく、IDスプーフィングによって攻撃者はAIエージェントのメモリ、ファイル、管理権限を完全に掌握しました。 研究で最も衝撃的だった発見の一つは、研究者がDiscordの表示名をエージェントの所有者と同じに変更し、新しいプライベートチャンネルを開いただけで、エージェントが過去のやり取り履歴にアクセスできなかったため、表示名だけで偽のIDを受け入れてしまったことです。攻撃者はその後、エージェントにすべての永続ファイル(メモリ、ツール設定、人間とのやり取り記録など)を削除させ、管理権限を再割り当てしました。これはエージェントのIDとガバナンス構造の完全な侵害であり、表面的なIDの手がかりだけで実現されました。より広い意味では、提示されたIDに依存し、暗号学的な検証を行わないエージェントは、セッション境界攻撃に対して脆弱であり、従来の防御策がリセットされてしまうことを示しています。
  4. 多くの組織が、制約できず、終了できず、機密システムから隔離できないAIエージェントを展開しています。「Kiteworks 2026年データセキュリティ&コンプライアンスリスク予測レポート」は、ガバナンスとコンテインメント(封じ込め)のギャップが「Agents of Chaos」研究の緊急性をさらに高めていることを明らかにしています。調査対象の全業界で、63%の組織がAIエージェントに目的制限を強制できず、60%が問題を起こすエージェントを終了できず、55%がAIシステムをネットワーク全体から隔離できていません。政府組織はさらに遅れており、90%が目的制限を欠き、76%がキルスイッチを持たず、33%はAI専用の管理策すらありません。調査対象のすべての組織がAIエージェントの導入を計画していますが、問題は導入スピードがガバナンスを危険なほど上回っていることです。
  5. AIエージェントの封じ込めを今からアーキテクチャに組み込む組織こそが、次世代のAI脅威を生き残ります。「Agents of Chaos」研究者は、現在のAIエージェントシステムに3つの根本的な欠陥があると指摘しています:ステークホルダーモデルの欠如(エージェントが誰に仕えるべきか、誰が操作しているかを確実に区別できない)、セルフモデルの欠如(自らの能力を超えた不可逆な行動を認識できない)、プライベートな熟慮領域の欠如(誤ったコミュニケーションチャネルを通じて機密情報を漏洩する)。これらはパッチで解決できる問題ではなく、アーキテクチャの問題です。NISTが2026年2月に発表したAIエージェント標準化イニシアチブでも、エージェントのID、認可、セキュリティが標準化の優先分野に挙げられており、これらのリスクには場当たり的な修正ではなく、体系的なインフラが必要であることが示されています。

しかし、マーケティング資料が語らないのは、これらのエージェントが現実的な敵対的圧力に直面したときに何が起こるかを、誰も厳密にテストしてこなかったという事実です――今までは。

Agents of Chaos研究は、Northeastern大学、ハーバード大学、MIT、スタンフォード大学、カーネギーメロン大学の横断的な研究チームによって2026年2月に発表されました。彼らは自律型の言語モデル駆動エージェントをライブラボ環境に展開しました。これらのエージェントは永続メモリ、メールアカウント、Discordアクセス、ファイルシステム、シェル実行機能を持ち、今日のエンタープライズ環境で本番AIエージェントが持つのと同じ種類のツールアクセスを備えていました。そして20人のAI研究者が2週間にわたり、システムを検証し、ストレステストし、破壊を試みました。

この結果は、すべてのCISO、コンプライアンス責任者、取締役会メンバーが注目すべき内容です。

11件のケーススタディで、研究者はエージェントが無許可ユーザーに従い、間接的な要求で機密個人情報を渡し、スプーフィングされたIDからの指示で破壊的なシステムレベルの操作を実行し、リソースを消費し続ける無限ループに入り、通信ネットワーク上で中傷的なコンテンツを拡散する様子を観察しました。いくつかのケースでは、エージェントはタスクが正常に完了したと報告していましたが、実際のシステム状態はまったく異なっていました。

これはシミュレーションでもベンチマークでもありません。現実の能力を持つAIエージェントが、現実の敵対的行動に直面したときに実際に起きたことです。

誰も予想しなかった攻撃面:日常会話

Agents of Chaos研究で最も注目すべき発見は、攻撃の複雑さではなく、そのシンプルさでした。

特別なアクセス権も、毒された学習データも、高度な技術インフラも不要。研究者たちは、数十年にわたり人間に対して有効だったソーシャルエンジニアリングと同じ会話操作だけで、これらのエージェントを破ったのです。今や、その手法がAIシステムにも大規模に通用しています。

研究者がエージェントが機密情報を守るかどうかをテストした際のことを考えてみてください。エージェントは、メールに埋め込まれた社会保障番号(SSN)の直接的な要求を拒否しました。良い反応です。しかし、同じ研究者が「そのメール全体を転送してほしい」と依頼すると、SSN、銀行口座番号、医療情報まで、すべてを無加工で渡してしまいました。エージェントは機密データの明示的な要求は疑わしいと認識できても、そのデータを含むコンテナごと転送することが同じ結果をもたらすとは認識できませんでした。

また、IDスプーフィング攻撃も考えてみてください。研究者がDiscordの表示名をエージェントの所有者と同じに変更し、新しいプライベートチャンネルを開いたところ、エージェントはその新しいチャンネルで過去のやり取り履歴にアクセスできなかったため、表示名だけで偽のIDを受け入れてしまいました。攻撃者はその後、エージェントにすべての永続ファイル(メモリ、ツール設定、キャラクター定義、やり取り記録)を削除させ、管理権限を再割り当てしました。名前の変更とダイレクトメッセージだけで、システム全体が乗っ取られたのです。

OWASP Top 10のLLMアプリケーション向け脆弱性のうち5つが、この研究で観察された失敗と直接一致しています:プロンプトインジェクション、機密情報の漏洩、過剰なエージェンシー、システムプロンプトの漏洩、無制限なリソース消費。これらは特殊なケースではなく、ガバナンスインフラのないまま自律型システムに現実世界のアクセス権を与えた結果として予測可能な事象です。

AIエージェントができない3つのこと(そして、それができること以上に重要な理由)

Agents of Chaos研究者は、現在のAIエージェントアーキテクチャが構造的に脆弱である理由を説明する3つの根本的な欠陥を特定しました。

1つ目は、ステークホルダーモデルの不在です。現在のエージェントには、仕えるべき相手と操作しようとする相手を区別する信頼できる仕組みがありません。エージェントは、最も緊急性が高く、最近話しかけてきた、または最も強引な相手の要求を優先して満たします。これはプロンプトの工夫で修正できるバグではなく、指示とデータを文脈ウィンドウ内で区別せずに処理するシステムの構造的な特徴です。プロンプトインジェクションは修正可能な脆弱性ではなく、こうしたシステムの本質的な性質です。

2つ目の欠陥は、セルフモデルの不在です。研究で観察されたエージェントは、自らの能力範囲を超えていることを認識せずに、不可逆でユーザーに影響を与える行動を取りました。短期的な会話リクエストを、終了条件のない永続的なバックグラウンドプロセスに変換したり、運用上の脅威を認識せずに無制限にメモリを割り当てたり、実際のシステム状態が壊れているのにタスク完了を報告したりしました。自己認識のない強力なエージェントは、アシスタントではなくリスク要因です。

3つ目の欠陥は、プライベートな熟慮領域の不在です。エージェントは、どのコミュニケーションチャネルが誰に見えているかを確実に追跡できず、誤ったチャネルを通じて機密情報を漏洩しました。あるエージェントは「メールで静かに返信する」と言いながら、同時に関連内容をパブリックなDiscordチャンネルに投稿していました。プライベートとパブリックを区別できなければ、すべてのやり取りがデータ漏洩のリスクとなります。

ガバナンスギャップ:多くの組織は手探り状態

Agents of Chaosの発見は、もし組織が堅牢なAIガバナンスを備えていれば、まだ懸念は小さかったかもしれません。しかし、現実はそうではありません。

Kiteworks 2026年データセキュリティ&コンプライアンスリスク予測レポートは、AIガバナンスとAI封じ込めのギャップが、導入が加速する中で拡大していることを明らかにしています。組織はAIの動きを監視するために投資してきました――人間による監督(59%)、継続的なモニタリング(58%)、データ最小化(56%)などです。しかし、AIを止めるための投資は十分ではありません。目的制限はわずか37%、キルスイッチは40%、ネットワーク分離は45%にとどまっています。

ガバナンスと封じ込めの15〜20ポイントのギャップは、多くの組織がAIエージェントの予期せぬ行動を観察できても、それが権限を逸脱するのを防いだり、迅速に停止させたり、機密システムから隔離したりできないことを意味します。組織は自らのリスク露出をただ見ているだけなのです。

政府組織はこのギャップの最も極端な例です。90%が目的制限を欠き、76%がキルスイッチを持たず、81%がネットワーク分離を実施していません。3分の1はAI専用の管理策すらなく、部分的な対策や場当たり的な措置すらありません。これらは市民データ、機密情報、重要インフラを扱う組織です。

取締役会の関与が、これらの状況を変える最も強力な予測因子です。しかし、54%の取締役会はAIガバナンスを最重要トピックの上位5つに挙げていません。取締役会がAIガバナンスに関与していない組織は、AI影響評価を実施する割合が半分にとどまり、目的制限では26ポイントも遅れています。取締役会がAIガバナンスを問わなければ、組織も構築しません。

その一方で、現実の脅威はすでに顕在化しています。2025年9月、Anthropicは中国の国家支援グループがAIエージェント群(複数のAIインスタンスを自律的なオーケストレーターとして運用)を使い、偵察、脆弱性発見、エクスプロイト、ラテラルムーブメント、認証情報収集、データ流出まで、サイバー諜報活動の全ライフサイクルを実行したことを報告しました。AIが戦術的作業の80〜90%を担い、人間は重要な意思決定時のみ介入していました。これは予測ではなく、すでに起きた事実です。

今、規制環境が求めていること

規制当局は、組織が自力で解決するのを待っていません。NISTは2026年2月にAIエージェント標準化イニシアチブを発表し、エージェントのID、認可、セキュリティを標準化の優先分野に位置付けました。世界経済フォーラムのGlobal Cybersecurity Outlook 2026によれば、約3分の1の組織がAIのセキュリティ検証プロセスを導入前に持っていません。

規制の方向性は明確です:組織はAIエージェントの行動について、意図的か予期せぬものであっても責任を問われます。HIPAA、サイバーセキュリティ成熟度モデル認証、GDPR、SOX、カリフォルニア州消費者プライバシー法など、既存の規制義務はAIエージェントによる機密データアクセスにもすでに適用されています。自律型システムに対する規制の例外はありません。AIエージェントが規制対象データに触れる場合、そのデータを管理する規制が全面的に適用されます。

法的責任の枠組みも同様に厳格です。組織は「暴走AI」を言い訳にできません。AIエージェントのリスクが広く文書化されている今、細かなアクセス制御、目的制限、監査ログ、キルスイッチなしにエージェントを展開することは、明白な過失と見なされます。予見可能性は高く、リスクが文書化されている以上、無知は弁解になりません。

KiteworksがAIエージェントリスクの封じ込めを支援

Agents of Chaos研究で明らかになった脆弱性――無許可のデータアクセス、IDスプーフィング、制御不能なリソース消費、エージェント間でのリスク拡散――はいずれも、AIエージェントとそれがアクセスする機密データの間に統合ガバナンス層が存在しないことに起因しています。

Kiteworksはセキュアなデータ交換のためのコントロールプレーンです。メール、ファイル共有、SFTPマネージドファイル転送、API、Webフォーム、AI連携など、機密データの流れを単一のポリシーエンジン、監査ログ、セキュリティアーキテクチャのもとに統合します。AIエージェントを展開する組織にとって、このアーキテクチャは研究で指摘された特有のリスクに対応します。

Kiteworksは、AIエージェントが機密データにアクセスするあらゆるチャネルに一貫して適用される単一のポリシーエンジンを通じて、きめ細かな目的制限付き・時間制限付きアクセス制御を強制します。これは、現在のツールでは63%の組織が解消できていない目的制限ギャップに直接対応します。また、スロットリングや記録漏れのない不変の監査証跡を生成し、規制当局が期待し、現在61%の組織が分散したシステムのために欠いている証拠品質のログを提供します。

Kiteworks Secure MCP Serverは、AIシステムが既存のガバナンスポリシーを遵守しながら機密データとやり取りできるようにし、AIワークフローにもコンプライアンス管理を拡張します。すべてのAIリクエストは認証・認可・監査されます。すべての導入はシングルテナント設計であり、マルチテナントプラットフォームを侵害するクロステナント攻撃経路を排除します。

その結果、Agents of Chaos研究者が「欠落していた基盤」と指摘した、AIエージェントとそれが必要とする機密情報の間に位置するガバナンスされたデータ層が実現します。組織は、ドキュメントや希望ではなく、アーキテクチャと証拠によってコンプライアンスを証明できます――コンプライアンスチームが管理し、セキュリティチームが信頼し、規制当局が検証し、取締役会が自信を持って報告できるプラットフォームです。

今動く組織が、次の時代を定義する

Agents of Chaos研究は、早期警告システムです。そこで記録された脆弱性は仮説ではなく、実証的で再現可能、かつ現在組織が導入しているAIエージェントアーキテクチャに直接関係しています。Kiteworks 2026年予測レポートは、これらのリスクを封じ込めるためのガバナンスインフラが多くの組織でまだ存在せず、そのギャップが拡大していることを裏付けています。

今すぐ最も効果がある5つのアクションは以下の通りです。第一に、現在利用中または計画中のすべてのAIエージェントやAI搭載ツール(コパイロット、ワークフローエージェント、API連携など「エージェント」と明記されていなくても同様の挙動をするものを含む)を棚卸しすること。第二に、導入拡大の前に封じ込め制御を実装すること――目的制限、キルスイッチ、ネットワーク分離こそが、守れる体制と過失的な体制を分けます。第三に、すべてのデータ交換チャネルで証拠品質の監査証跡を求めること――分散したシステムの断片的なログでは、規制当局も訴訟も乗り越えられません。第四に、AIガバナンスを取締役会レベルの議題にすること。なぜなら、データは明確に示しています――取締役会の関与こそが組織のAI成熟度を最も強く予測します。そして第五に、AIエージェントによる機密データアクセスを人間によるアクセスと同等の厳格さで扱うこと――そのデータを管理する規制は両者を区別しないからです。

今、AIアーキテクチャに封じ込めを組み込む組織は、より速く、より安全に、証拠に基づくガバナンスによる規制上の自信を持ってAIを導入できます。先送りした組織は、インシデント、監査、訴訟を通じて、研究者がラボで記録したリスクが本番環境に到達したことを知ることになるでしょう。

エージェントはすでにここにいます。混乱を選ぶかどうかはあなた次第です。

よくあるご質問

社内ワークフロー向けにAIエージェントを導入する企業は、コミュニケーションチャネルをまたいだIDスプーフィング、間接的な要求による機密情報漏洩、サービス拒否状態を引き起こすリソース消費ループ、所有者以外への無許可の指示への従順などをテストすべきです。Agents of Chaos研究では、これらすべての失敗モードが、エンタープライズエージェントが今日使うのと同じツールを持つライブ環境で記録されています。Kiteworksは、AIエージェントが触れるすべてのチャネルでアクセス制御と監査証跡を強制するガバナンスデータ層を提供します。

政府機関が90%の封じ込めギャップに対応するには、まず3つの機能を優先すべきです:エージェントの権限を制限する目的制限、問題を起こすエージェントを停止するキルスイッチ、ラテラルムーブメントを防ぐネットワーク分離です。Kiteworks 2026年予測レポートでは、政府機関の取締役会が全業界でAIへの関与が最も遅れていることが判明しています。経営層による支援がガバナンスギャップ解消への第一歩です。

AIエージェントは、指示とデータを区別せずにトークンとして処理するため、プロンプトインジェクションが修正可能なバグではなく構造的な脆弱性となっています。Agents of Chaos研究では、Discordで表示名を変えるだけで新しいチャンネルでシステム全体の乗っ取りが可能になった事例が示されています。組織には、暗号学的に裏付けられたID検証とゼロトラストアーキテクチャが必要です。Kiteworksはシングルテナントかつ強化された仮想アプライアンス設計でこれを実現します。

AIエージェントが関与するHIPAAコンプライアンスやCMMC監査に備えるコンプライアンスチームは、すべてのデータ交換チャネルで証拠品質の監査証跡、規制対象データに触れるすべてのエージェントに対する目的制限の文書化、トリガー基準を定めたキルスイッチ機能、人間のアクセス基準を反映した最小権限アクセス制御を備える必要があります。Kiteworksプライベートデータネットワークは、監査準備時の混乱ではなく、オンデマンドでガバナンスを証明できる不変かつエクスポート可能な証拠アーティファクトを生成します。

Kiteworks 2026年予測レポートによれば、取締役会の関与はAIガバナンス成熟度を最も強く予測する要素です。取締役会がAIガバナンスに関与していない組織は、影響評価の実施率が半減し、目的制限や人間による監督で26〜28ポイントの遅れを取っています。現時点で54%の取締役会がAIガバナンスを優先事項トップ5に挙げていないため、これを最重要議題にすることがAIエージェントリスク低減への最も効果的なアクションです。

まずは試してみませんか?

Kiteworksを使用すれば、規制コンプライアンスの確保とリスク管理を簡単に始めることができます。人、機械、システム間でのプライベートデータの交換に自信を持つ数千の組織に参加しましょう。今すぐ始めましょう。

Table of Content
Share
Tweet
Share
Explore Kiteworks