2026年データセキュリティ予測:セキュリティリーダーが知っておくべき15の予言
調査対象となったすべての組織が、エージェンティックAIをロードマップに組み込んでいます。例外はゼロです。
この驚くべき統計を、少し噛みしめてみてください。95%ではありません。「ほとんどのエンタープライズ」でもありません。100%です。
この事実だけでも、セキュリティリーダーが2026年の計画を見直すきっかけになるはずです。AIが自社の機密データに関与するかどうかは、もはや問いではありません。すでに関与しています。問うべきは、何か問題が発生した時に、組織としてAIを適切に管理できるガバナンスとコントロールがあるかどうかです。
主なポイント
- ガバナンスと封じ込めのギャップが、2026年のセキュリティ課題を決定づける。多くの組織がAIシステムの監視に多額の投資をしてきましたが、AIを停止させるためのコントロールは後回しにされてきました。63%はAIエージェントに目的制限を適用できず、60%は不正な挙動をするエージェントを迅速に停止できず、55%はAIシステムを機密ネットワークから隔離できません。監視と実行の間には15〜20ポイントのギャップがあります。
- 取締役会の関与がAI対応力の最重要指標。54%の取締役会はAIガバナンスをトップ5の優先事項に入れておらず、そうした組織はAI関連能力のあらゆる面で26〜28ポイント遅れています。政府機関は最もリスクが高く、71%の取締役会が市民データや重要インフラを扱いながらAIガバナンスに関与していません。
- 政府機関はAIコントロールで一世代遅れている。政府組織の90%は目的制限がなく、76%はキルスイッチ機能がなく、33%はAI専用のコントロール自体がありません。これは段階的な遅れではなく、根本的な違いであり、チェックリスト型のコンプライアンスではなく抜本的な変革が必要です。
- EU AI法がグローバルなガバナンス基準に。EU AI法の影響を受けていない組織は、すべての主要なAIコントロールで22〜33ポイント遅れています。米国組織の82%はまだプレッシャーを感じていませんが、規制はサプライチェーン、多国籍事業、競争ベンチマークを通じて広がっており、組織が気づかなくても影響は拡大しています。
監査証跡は、業界・規模・予算よりもAI成熟度を予測する。証拠レベルの監査証跡がない組織は、AIガバナンスのあらゆる指標で20〜32ポイント遅れています。監査証跡がまったくない33%、システムごとに断片化したログしかない61%は、AIガバナンスの土台が脆弱なままです。
10業界・8地域にわたる225名のセキュリティ、IT、リスクリーダーへの調査結果から、多くの組織にとって答えは明確な「ノー」です。導入済みのコントロールと実際に制御できる範囲のギャップは、経営層が認識している以上に大きいのが現状です。
本調査では、2026年のエンタープライズデータセキュリティに関する15の予測を提示しています。市場は野心と現実の狭間で揺れており、AI固有の能力には大きなギャップが存在します。取締役会がAIデータガバナンスに注目している組織とそうでない組織の間の格差も拡大しつつあり、AIシステムの監視と停止の間に根本的な断絶があることが明らかになりました。
2026年は、AIデータセキュリティが「新たな懸念」から「日常業務の現実」へと移行する年です。セキュリティリーダーが警鐘を鳴らしてきた「その時」が、いよいよ到来します。これは、貴社にとって何を意味するのでしょうか。
表1:15の予測一覧
| 予測 | 主な発見 | 確度 |
|---|---|---|
| 1 | DSPMが標準に | 61%がタグ付けを強制できない |
| 2 | ガバナンスが「デフォルト管理型」へ | 37%が管理成熟度未満 |
| 3 | AIゲートウェイの集中化がコントロールプレーンに | 57%が非集中型 |
| 4 | エージェンティックAIが主流化 | 100%がロードマップに |
| 5 | 封じ込めコントロールが主戦場に | 63%が目的制限なし |
| 6 | AIリスクがセキュリティ議題を支配 | 可視性ありは36%のみ |
| 7 | サプライチェーンがAIアテステーションへ拡大 | 72%がSBOM未対応 |
| 8 | サードパーティリスクが可視性重視へ | 89%がパートナーとIR未実施 |
| 9 | IRがAI組み込み型に | 60%がAI異常検知なし |
| 10 | 監査証跡が要となる | 33%が証跡なし、61%が断片化 |
| 11 | 学習データコントロールが規制要件に | 78%が検証不可 |
| 12 | AIガバナンスが全取締役会に波及 | 54%の取締役会が未関与 |
| 13 | EU AI法がグローバルテンプレートに | 22〜33ポイントのコントロールギャップ |
| 14 | PQCが主流化 | 84%が未導入 |
| 15 | データ主権がAIの必須要件に | 29%が越境リスクを指摘 |
ガバナンス vs. 封じ込めギャップ:誰も語りたがらない中核課題
多くの組織はこの2年間、AIデータガバナンスコントロールへの投資を続けてきました。人による監督(59%が導入)、継続的モニタリング(58%)、データ最小化(56%)など、確かに有意義な能力です。セキュリティチームはダッシュボードを示し、監査人にドキュメントを提示し、「誰かがどこかで監視している」と証明できます。
しかし、「監視」は「停止」ではありません。この違いは、多くの組織が認識している以上に重要です。
封じ込め、つまりAIシステムに問題が発生した際に停止させる能力への投資状況は、まったく異なる現実を示しています:
- 63%の組織がAIエージェントに目的制限を適用できない
- 60%が不正なエージェントを迅速に停止できない
- 55%がAIシステムを広範なネットワークアクセスから隔離できない
これらの数字を改めて見直してください。約3分の2の組織が、制御できないAIエージェントを導入しています。10社中6社は、AIエージェントが不適切な行動を始めてもキルスイッチを作動できません。半数以上が、AIシステムが侵害されたり予期せぬ挙動を始めた場合、横展開を防ぐことができません。
監視と実行の間には15〜20ポイントのギャップがあります。多くの組織は、AIエージェントが予期せぬ行動をするのを見守ることはできますが、権限範囲を逸脱するのを防いだり、迅速に停止したり、機密システムから隔離することはできません。必要なのは「回路遮断機」なのに、観察デッキばかりが構築されています。
このガバナンスと封じ込めのギャップこそが、2026年に向けた最大のセキュリティ課題です。なぜこのギャップが生まれたのでしょうか?それは、導入が容易で監査人にも説明しやすいコントロール(例:ログ取得)に投資が集中したからです。「監視しています」という説明は、実際にはコントロールでなくてもコントロールのように聞こえます。本当に必要な「停止力」の構築は、後回しにされ続けてきました。
このギャップ解消に向けたパイプラインは、調査の中で最大規模です。39%の組織が目的制限の導入を、34%がキルスイッチ機能の導入を計画しています。何が問題か、どこにギャップがあるか、組織は正確に把握しています。ある意味、自己認識は進んでいます。
しかし、パイプラインがあっても実行とは限りません。歴史的に、セキュリティロードマップの60〜70%しか予定通りに実現しません。仮に実行が進んでも、2026年末には4分の1の組織が基本的な封じ込めコントロールを持たないままです。しかも、AI導入を最も加速している組織ほど封じ込めのギャップが大きい傾向にあります。コントロールが必要になる前に何とかなるだろうと、危険なカーブに加速して突入しているのです。
これは戦略ではなく、「予算を伴った希望的観測」に過ぎません。
表2:サードパーティリスク現実チェック
| 能力 | 現状 |
|---|---|
| パートナーのAIデータ取扱いの可視性 | 36%のみが保有 |
| サードパーティベンダーとのIR実施経験 | 11%のみが経験あり |
| パートナーとの共同IRプレイブック | 13%のみが保有 |
| パートナーアクセス用自動キルスイッチ | 16%のみが保有 |
なぜ監査証跡がすべてを予測するのか
最も驚いた発見は、証拠レベルの監査証跡がない組織は、AIのあらゆる側面で成熟度が著しく低いことです。数ポイントの差ではなく、20〜32ポイントもの差が生じています。
監査証跡がない組織は、AI学習データのリカバリー能力が半分(26%対58%)しかありません。目的制限で20ポイント、人による監督で26ポイント遅れています。これは段階的な違いではなく、成熟度の階層自体が異なります。同じ業界・同じ地域・同じ規模でも、監査証跡の有無でAIデータガバナンスの実態は全く異なります。監査証跡の有無が、他のどの要素よりもセキュリティ体制を予測します。
それでも33%の組織は証拠レベルの監査証跡がまったくありません。さらに61%は、システムごとに断片化したログしか持っていません。ログ自体は存在しても、集約・正規化・実用化できる形になっていません。
インシデント対応や監査質問が発生した際、こうした組織のセキュリティチームは、複数プラットフォームに分散したログを手作業で突き合わせ、何が起きたかを再構築するのに何時間、時には何日も費やします。まるで、バラバラの箱に分かれたパズルのピースをかき集めているようなものです。
これは証拠ではなく「考古学」です。そして考古学は、規制対応や侵害通知の場面では通用しません。
インフラ担当者が耳を塞ぎたくなる真実は、「断片化したインフラの上にAIデータガバナンスは築けない」ということです。メール、ファイル共有、MFT、クラウドストレージ、コラボレーションツール、AIシステムなど、分離したデータ交換基盤の上に証拠レベルの監査証跡を構築しようとするのは、土台が支えきれない建物を建てるようなものです。断片化は些細な不便ではなく、ツールで補いきれない構造的な制約です。
学習データガバナンスも同様の傾向があり、多くの組織がまだ十分に把握していない規制領域にまで影響が及びます。規制当局から「モデルにPIIが含まれていないとどう証明できますか?」と問われても、78%の組織は答えられません。入力データの整合性を検証せずにモデルを学習・ファインチューニングしているのが現状です。
GDPR、CCPA/CPRA、AI関連の新たな規制下で、データ主体が削除権を行使した場合、53%の組織は学習済みモデルからそのデータを削除する手段を持ちません。結局、最初から再学習する(コスト・時間ともに膨大で、実運用では非現実的)か、「誰にも問われないことを祈る」しかありません。
「忘れられる権利」はAIにも適用されつつあります。規制の流れは明白で、主要なプライバシーフレームワークはAIの学習・推論にもデータ主体の権利を拡大しています。しかし、ほとんどの組織は対応準備ができていません。
取締役会効果:リーダーシップの関与が予算や人員よりも重要な理由
取締役会の関与は、AI成熟度を最も強く予測する要素です。業界、地域、組織規模、セキュリティ予算よりも強い相関があります。
54%の取締役会がAIデータガバナンスをトップ5の議題に入れていません。こうした組織は、すべての主要なAI指標で26〜28ポイント遅れています。例外はありません。
取締役会が関与していない組織は、AIインパクト評価の実施率が半分(24%対52%)しかありません。目的制限で26ポイント、人による監督で24ポイント遅れています。パターンは一貫して明確です。取締役会がAIデータガバナンスを問わなければ、組織は構築しません。リソースは他へ流れ、優先順位も変わります。セキュリティチームがどれだけ訴えても、取締役会の目が向かなければ予算争いで負けます。
業界ごとの違いも顕著です。政府機関は最大のギャップを示し、71%の取締役会がAIデータガバナンスに関与していません。プロフェッショナルサービスは80%が関与しており、リーダーとラガードの差は51ポイントにもなります。
これは現実に何を意味するのでしょうか。政府機関は市民データや機密情報、重要インフラを扱いながら、AIリスクに対する取締役会の監督が最も薄いのです。最も機密性が高く、リスクも大きい組織ほど、新たなリスクベクトルへのリーダーシップの関心が低いという矛盾が生じています。
ヘルスケア業界の取締役会は55%が未関与。金融サービスは40%。テクノロジー業界も、AIシステムを構築・展開しているにもかかわらず、47%の取締役会がAIデータガバナンスを優先事項にしていません。
この相関関係は、明確なアクションを示唆しています。それは技術的なものではありません。AIデータガバナンスが取締役会の議題にないなら、必ず載せるべきです。取締役会が自発的に気づくのを待つのは、タイムラインを運任せにすることです。リーダーシップが注目すれば、必要な能力が構築されます。注目しなければ、構築されません。それほど明確で予測可能な関係です。
表3:業界別取締役会関与状況
| 業界 | AIガバナンス未関与の取締役会 | リーダーとの差 |
|---|---|---|
| 政府機関 | 71% | -51ポイント |
| ヘルスケア | 55% | -35ポイント |
| テクノロジー | 47% | -27ポイント |
| 金融サービス | 40% | -20ポイント |
| プロフェッショナルサービス | 20% | ベンチマーク |
業界・地域別の発見:リーダー、ラガード、そして教訓
政府機関は一世代遅れている。段階的な遅れではなく、根本的な遅れです。数字は繰り返す価値があります。90%が目的制限なし。76%がキルスイッチ機能なし。33%がAI専用コントロール自体なし。
この最後の数字は特に重要です。政府組織の3分の1が、AIを導入しながら、部分的なコントロールもアドホックな対策もなく、機密データへのアクセスを管理するAI固有のガバナンスを一切持っていません。運用環境でAIを使い、市民データが流通しているにもかかわらず、AIガバナンスがゼロです。
こうした組織は、市民データや重要インフラを、他業界よりも遅れたAIコントロールで扱っています。政府機関のAIデータガバナンス課題は、抜本的な変革が必要であり、チェックリスト型の改善では埋まりません。法的義務がなくても、EU AI法フレームワークを標準として採用することが出発点となるでしょう。
オーストラリアはベンチマークであり、トレードオフが不可避でないことを証明している。オーストラリアの組織は、ほぼすべての指標で+10〜20ポイントの優位を示し、導入パイプラインも最も強力です。注目すべきは、セキュリティとイノベーションがトレードオフにならないことを実証している点です。
オーストラリアの組織は、AI導入率もコントロールの強度も高い水準を両立しています。スピードとガバナンスのどちらかを選ぶのではなく、両立させており、両面でリードを広げています。トレードオフではなく、優位性を複利で積み上げています。
「イノベーションを損なわずにコントロールを導入できない」と主張する組織は、オーストラリアの事例を研究すべきです。言い訳はデータの前に通用しません。
ヘルスケアは、最も機密性の高いデータを扱いながら、重大なインシデント対応ギャップを抱えている。ヘルスケア組織の77%はリカバリー目標時間をテストしていません。実際のインシデント時に初めて、復旧にどれだけ時間がかかるかを知ることになります。64%がAI異常検知なし。68%が手動のIRプレイブックを運用中です。
こうした組織は、保護対象保健情報を、初の本格的なAIインシデントに耐えられないIR体制で扱っています。高機密データ、規制リスク、運用ギャップが重なり、業界全体に集中リスクが生じています。
製造業はあらゆる場面で可視性の欠如に直面している。67%が可視性ギャップを最重要課題とし、これは世界平均より21ポイント高い数値です。複雑で多層的なサプライチェーンの中で、データの流れがほとんど把握できていません。サードパーティリスク管理ベンダーがデータをさらに別のベンダーに渡し、その先も同様で、どの段階でも可視性がありません。
製造業にとって、サードパーティ可視性は「あると便利」な機能や将来の課題ではなく、事業存続に関わる問題です。見えないものは守れません。製造業は、他業界よりも可視性が低いのです。
プロフェッショナルサービスはプレッシャーの下で成果を出している。取締役会の80%が注目。67%がゲートウェイ集中化。80%が倫理的AIガイドラインを導入。ほぼすべての指標でリーダーです。なぜ突出しているのでしょうか?
顧客データの漏洩リスクが、この積極的な姿勢を生み出しています。プロフェッショナルサービスでは、すべてのコントロール判断が「顧客データが漏れたらどうなるか」「説明できないモデルや監査できない学習データに顧客情報が入ったらどうなるか」「評判・法的責任・顧客関係にどう影響するか」という厳しい視点で評価されます。
恐れは適切です。そして、その恐れが生産的に投資へとつながった結果が、現在のガバナンス体制です。
地域別の主権意識にも大きな違いがあり、規制執行が既に行動変容をもたらしている地域と、理論上の対応にとどまっている地域の差が浮き彫りになっています。
中東(UAE・サウジアラビア)の組織は、サードパーティAIベンダーのデータ取扱いに42〜45%が懸念を示しており、これは実効性のあるデータローカライゼーション要件と罰則が背景にあります。ドイツは無許可の再共有に60%が懸念を示し、世界平均のほぼ2倍です。GDPRの執行により、データフローの責任が現実のものとなっています。実際に罰則を受けた同業他社を目の当たりにし、対応を強化しています。
こうした地域は、規制のプレッシャーをすでに体感しているため、主権問題を明確に認識しています。他の多くの地域は、規制執行が自分たちに及ばない、あるいは事前に警告があると楽観的に考え、対応が遅れています。
サードパーティリスク:誰も解決できていない可視性クライシス
AI時代において、年次ベンダーアンケートは機能しません。従来のサードパーティリスク管理の「チェックボックス方式」—アンケートを送り、巧妙に作られた回答を受け取り、コンプライアンス目的で保管し、翌年また繰り返す—は、従来型データ管理でも不十分でした。AI時代では、もはや「見せかけ」に過ぎません。
しかし、89%の組織はこれに代わる仕組みを持っていません。従来の方法が機能しないことは分かっていても、新しい仕組みを構築できていないのです。
可視性の問題は深刻で、ほとんど手つかずのままです:
- パートナーがAIシステムでデータをどう扱っているか可視化できているのは36%のみ
- サードパーティベンダーとインシデント対応を実践したことがあるのは11%のみ
- パートナーと共同IRプレイブックを持つのは13%のみ
- 必要時にパートナーアクセスを迅速に取り消せる自動仕組みがあるのは16%のみ
パートナーが侵害される(実際に頻繁に発生しています)と、約9割の組織は即興で対応するしかありません。プレイブックも練習も、連携したコミュニケーション計画もありません。初めて重要ベンダーと共同でインシデント対応を行うのが、実際のインシデント発生時という最悪のタイミングになります。
ソフトウェアサプライチェーンは、こうしたリスクをさらに深刻化させます。72%の組織は、自社のソフトウェアコンポーネントの信頼できるインベントリを作成できません。次のLog4j級の脆弱性が発生した場合、約4分の3の組織が、SBOMがないために影響範囲の特定に右往左往することになります。ベンダーに問い合わせ、ドキュメントを探し、手作業でシステムを確認する間にも、時間は刻々と過ぎていきます。
AIサプライチェーンはさらに深刻です。ソフトウェアコンポーネントには標準的なインベントリ管理がありますが、AIモデルのアテステーションには標準がありません。モデルの由来を体系的に追跡している組織はほとんどありません。必要性は認識されており、35%がAIサプライチェーンリスクを最重要課題の一つに挙げています。懸念は正しいのです。
しかし、ツールや標準はまだ存在せず、組織も代替策を構築していません。誰かが解決してくれるのを待ちながら、十分に検証できないモデルを展開し続けているのが現状です。これは計算されたリスクですが、その計算は長期的には通用しないかもしれません。
表4:サードパーティリスク現実チェック
| 能力 | 現状 |
|---|---|
| パートナーのAIデータ取扱いの可視性 | 36%のみが保有 |
| サードパーティベンダーとのIR実施経験 | 11%のみが経験あり |
| パートナーとの共同IRプレイブック | 13%のみが保有 |
| パートナーアクセス用自動キルスイッチ | 16%のみが保有 |
規制の方向性:EU AI法が事実上のグローバルテンプレートに
EU AI法の影響を受けていない組織は、すべての主要なAIコントロールで22〜33ポイント遅れています。ギャップは段階的ではなく、根本的なものです:
- AIインパクト評価がない組織は74%(影響を受けている組織は41%)
- 目的制限なしが72%(同46%)
- AIレッドチーミング未実施が84%(同61%)
- 人による監督コントロールなしが48%(同26%)
EU AI法は、欧州外の組織が認識していなくても、2層構造の市場を生み出しています。規制プレッシャー下の組織は、必要に迫られてガバナンス基盤を構築しています。プレッシャーのない組織は、まだ必要性を感じていないため対応が遅れています。規制による強制力は狙い通りに機能しており、後から埋めるには高コストなギャップを生み出しています。
米国組織の82%は、まだEU AI法のプレッシャーを感じていないと回答しています。しかし、その「まだ」は非常に重要です。規制は、直接的な管轄権がなくても、サプライチェーンリスク管理要件(欧州顧客が米国ベンダーに準拠を要求)、多国籍事業(欧州で事業を行う組織はその部分で準拠が必要)、競争ベンチマーク(「良いガバナンス」の基準が先行者によって定義される)などを通じて広がります。
EU AI法を「欧州だけの問題」と捉えている組織は、AIデータガバナンスで22〜33ポイントの遅れを取ることになります。後から追いつこうとすれば、より高いコストと短い期間での対応が求められますし、先行投資した競合にビジネスを奪われるリスクもあります。どちらも好ましい結果ではありません。
データ主権も、保存場所から処理場所へと論点が拡大していますが、多くの組織はコントロールや考え方をアップデートできていません。もはや「どこにデータがあるか」だけでは不十分です。29%の組織がAIの越境転送を主要リスクに挙げていますが、多くは保存場所のみ対応済みで、処理・学習・推論の場所まではカバーできていません。
クラウドAIベンダーへのプロンプトが別の法域で処理され、他所にホストされたモデルのファインチューニングに使われ、複数の国境を越えて出力が返されることもあります。従来のデータレジデンシーコントロールは、保存中のデータを対象にしており、AIパイプラインを通じて移動するデータには対応できません。保存だけを管理し、処理を無視していると、規制当局がAIの実態に追いついた時に厳しい指摘を受けることになります。
ポスト量子暗号(PQC)も、多くの組織が無視または先送りしているタイムライン課題です。84%がPQCを未導入。約半数はまったく使っておらず、実際にはさらに多い可能性もあります(過大申告の疑い)。
「今収集し、後で復号」攻撃はすでに現実化しています。攻撃者は今暗号化されたデータを取得し、量子コンピュータの進化を待っています。10年以上機密性を保つ必要のあるデータ(医療記録、金融情報、機密資料、知的財産、法的文書など)は、2030年以降に向けて移行準備を始めていないと、すでにスケジュール的に遅れています。
今すぐやるべきこと:待ったなしの優先アクション
短期優先事項(2026年Q1〜Q2):
キルスイッチギャップを解消する。60%の組織がAIエージェントを迅速に停止できません。最初の大規模インシデントでこのギャップが露呈した時、「なぜ基本的な封じ込めがなかったのか」を取締役会に説明する羽目にならないよう、今すぐ対策が必要です。AIを本番運用するなら必須の要件ですが、多くの組織が未対応です。
目的制限を導入する。63%がAIエージェントの権限範囲に制限を設けていません。これは調査で最大のギャップであり、失敗すれば大きなニュースになるリスクです。何でもできるAIエージェントは、いずれ「やってはいけないこと」を実行します。
監査証跡を監査する。33%が証拠レベルの証跡を持たず、61%はシステムごとに断片化したログしかありません。どんなに優れたツールがあっても、断片化したインフラの上にAIデータガバナンスは築けません。インシデント再現に手作業で数日かかるなら、それは監査証跡ではなく、法的証拠価値の低い「歴史記録」に過ぎません。
エージェンティックAIのユースケースを棚卸しする。把握できていないものは管理できません。シャドーAIは、セキュリティチームの想定以上のスピードで拡大しています。事業部門が、セキュリティ部門が知らず、評価も承認もしていないAI機能を独自に導入しているケースが増えています。まずは現状把握から始めましょう。
サードパーティAIリスクを評価する。パートナーのAIデータ取扱いを可視化できているのは36%のみ。他は契約条項に頼るしかなく、実際のリスクを把握・測定できていません。ベンダーがAIシステムで自社データをどう扱っているか、契約書ではなく実態を確認しましょう。
表5:AIセキュリティ・プライバシーの主なリスク
| リスク | 主な懸念として挙げた割合 | 現状のコントロール成熟度 |
|---|---|---|
| サードパーティAIベンダーのデータ取扱い | 30% | 弱い—可視性ありは36%のみ |
| 学習データのポイズニング | 29% | 非常に弱い—事前検証ありは22% |
| 出力・埋め込みを通じたPII漏洩 | 27% | 弱い—目的制限ありは37% |
| AIによるインサイダー脅威の増幅 | 26% | 中程度—人による監督ありは59% |
| プロンプト内の個人データ | 35% | 非常に弱い—主にポリシー対応、技術的対策は稀 |
| シャドーAI | 23% | 非常に弱い—発見ツール保有はごく少数 |
中期優先事項(2026年後半):
AI異常検知を導入する。60%が未導入で、インシデント対応ギャップとして最大です。40%から十分な検知体制に引き上げるには、ツール調達、データパイプライン構築、モデルチューニング、アラート運用、スタッフ教育など、時間がかかります。年内に体制を整えるには今すぐ着手が必要です。
学習データガバナンスを構築する。78%が学習パイプラインへのデータ検証不可。77%が由来追跡不可。53%がインシデント後の学習データ復旧不可。規制当局は「モデルに何が入っているか」を必ず問います。「分かりません」では通用しません。
重要ベンダーと共同IRプレイブックを策定する。87%が未策定。89%がパートナーとインシデント対応を実践したことがありません。本番対応の最中にコミュニケーションや意思決定のルールを決めるのは最悪です。事前に練習しておきましょう。
断片化したデータ交換インフラを統合する。61%が証拠レベルの監査証跡や統合AIデータガバナンスを支えられない分離システムを運用しています。現代の脅威には現代的なインフラが必要で、断片化から統合への「つぎはぎ」対応は限界があります。
サードパーティAIアテステーションを契約更新時に必須化する。アンケートだけでは不十分です。2026年のベンダー契約にAI取扱い要件を盛り込み、交渉力があるうちに対応しましょう。インシデント発生後では遅すぎます。
格差は一度広がり、しばらく縮まらない
2026年以降を見据えるすべてのセキュリティリーダーが注目すべきパターンがあります。AI導入を最も積極的に進めている組織は、ガバナンスも最も進んでいます。一方、AI導入を始めたばかりの組織は、基本的な封じ込めコントロールすら79〜81%が未整備のまま、競争圧力から導入を加速しようとしています。
これは収束ではなく「二極化」を生みます。リーダーは優位性を複利で拡大します。1つコントロールを導入すれば、次の導入が容易になります。1つのインシデントを回避すれば、その学びは競合が自ら体験するまで得られません。ラガードは四半期ごとにさらに遅れ、準備ができた組織とそうでない組織のギャップは2026年を通じて拡大し続けます。
次のAIセキュリティインシデントの波は、ガバナンス基盤を持たずに導入を急ぐ組織から発生するでしょう。彼らもいずれ同じ教訓を得ますが、より公に、より高コストで、次のインシデントまでの猶予も短くなります。
本レポートで示した15の予測は、市場の進む方向を示しています。ギャップは、組織がどこでリスクにさらされているかを示します。100%がAIをロードマップに載せていますが、大半はガバナンスできていません。63%が目的制限を強制できず、60%が不正エージェントを停止できず、53%がインシデント後の学習データ復旧ができません。
予測は進路を、ギャップは脆弱性を示します。貴社の未来は、この情報をどう活用するかにかかっています。
よくあるご質問
調査対象となったすべての組織(100%)がエージェンティックAIをロードマップに組み込んでいます。例外はありません。10業界・8地域の225名のセキュリティ、IT、リスクリーダーを対象とした調査で、AI導入計画が普及していることが明らかになりました。課題はAIを導入するかどうかではなく、安全に管理するためのガバナンスと封じ込めコントロールを備えているかどうかです。
ガバナンスと封じ込めのギャップとは、AIシステムの監視能力と停止能力の間にある15〜20ポイントの差を指します。59%が人による監督、58%が継続的モニタリングを導入している一方、目的制限は37%、キルスイッチ機能は40%しかありません。多くの組織はAIエージェントの予期せぬ行動を観察できますが、権限逸脱を防いだり、迅速に停止したりすることはできません。
不正なAIエージェントを迅速に停止できるキルスイッチ機能を持つ組織は40%のみです。残りの60%はこの基本的な封じ込めコントロールがなく、AIシステムが想定外の動作や不適切なデータアクセスを始めても即座に停止できません。積極的な導入が進んでも、2026年末時点で26〜36%の組織がこの機能を持たないと予測されています。
政府機関が最もリスクにさらされており、90%が目的制限なし、76%がキルスイッチ機能なし、33%がAI専用コントロール自体を持っていません。次いでヘルスケアは重大なインシデント対応ギャップがあり、77%がリカバリー目標時間をテストしておらず、64%がAI異常検知を未導入です。製造業はサプライチェーン全体で可視性の欠如が深刻で、67%が可視性ギャップを主要課題としています。
証拠レベルの監査証跡を持つ組織は、学習データ復旧、人による監督、目的制限など、すべてのAI指標で20〜32ポイント優位です。監査証跡は、説明責任、インシデント対応、データコンプライアンスを支える基盤となります。監査証跡がない33%、断片化したログしかない61%の組織は、何か問題が起きた時に証明できる能力がなく、効果的なAIデータガバナンスを構築できません。
EU AI法の直接的な影響を受けていない組織は、インパクト評価、目的制限、レッドチーミングなど、AIコントロールで22〜33ポイント遅れています。規制は、サプライチェーンリスク管理要件(欧州顧客が準拠を要求)、多国籍事業、競争ベンチマークを通じてグローバルに波及しています。米国組織の82%はまだプレッシャーを感じていませんが、EU AI法は事実上「良いAIデータガバナンス」の基準となり、準拠組織と非準拠組織の2層市場を生み出しています。