AIセキュリティ危機に企業は無防備で突入中(データがそれを証明)

約1兆件に及ぶトランザクション分析が示す厳しい現実―組織はAIの導入を急速に進めている一方で、そのセキュリティ対策が追いついておらず、攻撃者はすでにその隙間を突いています。

AIセキュリティの大きな断絶

エンタープライズテクノロジーの世界で異変が起きています。企業はAIツールの導入や機械学習のワークフローへの統合、カスタマーサービスからコード開発まであらゆる業務の自動化を急いでいます。しかし、セキュリティ研究者が実際にこれらのシステムが攻撃にどれほど耐えられるかをテストしたところ、衝撃的な事実が判明しました。調査対象となったすべてのエンタープライズAIシステムに重大な脆弱性が存在していたのです。

これは誤記ではありません。100%の失敗率です。

ZscalerのThreatLabz 2026 AIセキュリティレポートは、2025年に約9,000の組織で行われたほぼ1兆件のAIおよび機械学習トランザクションを分析しました。その結果は、業界が崖に向かって加速しながら突き進んでいる状況を如実に物語っています。

レッドチームテストにおける最初の重大な障害までの中央値はわずか16分で、90%のシステムが90分以内に侵害されました。最も極端なケースでは、防御が1秒で崩壊しています。

このタイムラインを考えてみてください。セキュリティチームは通常、対応時間を数時間や数日単位で測定しますが、攻撃者は今や数分で侵害を完了できるのです。

5つの重要なポイント

1. テストされたすべてのエンタープライズAIシステムに重大な脆弱性

Zscalerのレッドチームテストでは、分析対象となったエンタープライズAIシステムの100%に重大な欠陥が見つかり、最初の重大な障害までの中央値はわずか16分でした。最も極端なケースでは、セキュリティ防御が1秒で突破され、AIシステムが実際の攻撃環境下でほぼ即座に破綻することが示されました。

2. 18,000テラバイトの企業データがAIプラットフォームに流出

エンタープライズデータのAIおよびMLアプリケーションへの転送は前年比93%増の18,033テラバイトに急増し、GrammarlyやChatGPTのようなツールが企業インテリジェンスの巨大な集積地となりました。この結果、ChatGPTだけで4億1,000万件のデータ損失防止ポリシー違反が発生し、社会保障番号やソースコード、医療記録の共有試行も含まれていました。

3. シャドーAIがエンタープライズのセキュリティ制御を回避

従業員の約77%が生成AIツールにデータを貼り付けており、その82%が企業の監視外である個人アカウント経由で行われています。従来のデータ損失防止システムはコピーペーストのワークフローを想定しておらず、セキュリティチームは大半の機密データ転送を把握できていません。

4. AIアプリケーションが4倍に増加、可視性は崩壊

AI/MLトランザクションを担うアプリケーション数は前年比4倍の3,400以上に急増し、多くの組織が稼働中のAIモデルや組み込み機能の基本的な棚卸しすらできていません。金融・保険業界が全トラフィックの23%でAI導入をリードし、テクノロジーや教育分野では取引件数が200%を超える成長を記録しました。

5. エージェンティックAIがマシンスピードのサイバー攻撃を可能に

自律型AIエージェントは、次なるインサイダーリスクであると同時に攻撃者の力を増幅する存在として登場しており、偵察・侵害・横展開を従来のセキュリティツールでは追いつけない速度で実行可能です。防御側は、攻撃が人間の速度ではなくマシンスピードで拡大・適応することを前提に、数時間単位の対応で数分で侵害される脅威に立ち向かわなければなりません。

自社のセキュリティ、信じていませんか?本当に検証できていますか

今すぐ読む

18,000テラバイトの企業インテリジェンスが外部へ流出

AIシステムに流入するデータ量は驚異的な規模に達しています。エンタープライズデータのAIおよび機械学習アプリケーションへの転送は2025年に18,033テラバイトとなり、前年比93%増を記録しました。これは約36億枚分のデジタル写真に相当する企業情報が外部AIプラットフォームに投入された計算です。

この膨大なデータはどこへ行くのでしょうか。Grammarlyは3,615テラバイト、ChatGPTは2,021テラバイトの企業コンテンツを吸収しました。これらのプラットフォームは、戦略文書からソースコード、顧客データまで、企業インテリジェンスの巨大な保管庫となっています。

問題は従業員がAIツールを使うこと自体ではありません。問題は、その使い方と、本人が気付かぬうちに何を共有しているかにあります。

このリスクの規模は、ChatGPTだけで4億1,000万件のデータ損失防止ポリシー違反が発生していることからも明らかです。社会保障番号やソースコード、医療記録の共有試行も含まれています。

4億1,000万件の違反―たった1つのアプリケーションで。

誰も語りたがらないシャドーAI問題

従業員の約77%が生成AIツールにデータを貼り付けており、その82%が企業の監視外である個人アカウント経由で行われています。つまり、機密データの大半が企業のセキュリティ制御を完全に回避して転送されているのです。

このレポートの結果は、業界全体の調査とも一致しており、従業員の68%がChatGPTのようなフリーティアAIツールを個人アカウントで利用し、57%が機密データを入力していることが示されています。

従来のデータ損失防止システムは、ファイルのアップロードやダウンロードを検知するために設計されていました。コピーペースト時代、つまり従業員が機密文書のテキストをハイライトし、個人のGmailアカウントで動作するブラウザベースのチャットボットに貼り付けるような使い方には対応していません。

最も差し迫った生成AI特有のリスクは、データ露出の大幅な増加であり、genAIアプリケーション利用に伴うデータポリシー違反の発生率は昨年2倍に増加しました。

これは理論的な懸念ではありません。実際に測定可能で加速しており、あらゆる業界で現実に起きていることです。

見えない脅威―組み込みAI

ChatGPTやコーディングアシスタントのような明白なAIアプリケーションの背後には、さらに厄介な問題が潜んでいます。AI機能は今や日常的なエンタープライズソフトウェアプラットフォームに直接組み込まれ、しばしばデフォルトで有効化され、ユーザーが意識しないまま動作しています。

これらの組み込みAI機能は、セキュリティ研究者が「静かなリスク増幅要因」と呼ぶものを生み出します。ホストアプリケーションから過剰な権限を引き継ぎ、接続されたシステムから業務コンテンツを取り込み、新たな信頼境界を形成しますが、それらは監査や検知が困難です。

分析対象となった全プラットフォームの中で、Atlassianは組み込みAIアクティビティの主要な発生源となっており、JiraやConfluenceなどのコアプラットフォームでAI機能が広く利用されていることを反映しています。

プロジェクト管理ツールがAIでチケットを静かに要約したり、ドキュメントプラットフォームが自動でコンテンツ提案を生成したりすることで、セキュリティチームが想定しなかった経路から機密情報がAIシステムに流れ込む可能性があります。

その結果、多くの組織はいまだに稼働中のAIモデルや組み込み機能の基本的な棚卸しすらできておらず、どこで機密データが露出しているかを把握できていません。

3,400アプリケーションの爆発的増加

AIおよびMLトランザクションを担うアプリケーション数は前年比4倍の3,400以上に急増し、複雑性が増す一方で中央集権的な可視性が低下しています。

この急速な拡大により、多くの組織はどのAIモデルが自社データとやり取りしているのか、どんなサプライチェーンが背後にあるのか、全体像を把握できていません。セキュリティチームは、指数関数的に増大する問題に対して「モグラ叩き」を強いられています。

エンタープライズAIのアクティビティは、3,400以上のアプリケーションで前年比91%増加しました。金融・保険業界は取引量で最もAI活用が進んでおり、全AI/MLトラフィックの23%を占めています。一方、テクノロジーと教育分野では前年比202%、184%という爆発的な成長を記録しました。

エンジニアリング部門が全AI利用の48.9%を占め、次いでITが31.8%、マーケティングが6.9%となっています。最も利用が多いのは、まさに機密性の高い知的財産や顧客データへのアクセス権を持つ部門です。

マシンがマシンスピードで攻撃する時代

ここから話は、懸念から本格的な危機感へと移ります。

Moody’sの2026年サイバー見通しレポートは、AIを活用したサイバー攻撃の激化、適応型マルウェアや自律型脅威の増加を警告しており、企業が十分なセーフガードなしにAIを導入している現状を指摘しています。

「エージェンティックAI」―人間の監督なしに複雑なタスクを実行できる自律型システム―の登場は、脅威の状況を根本的に変えています。Palo Alto Networksによると、AIエージェントは2026年に企業にとって新たなインサイダーリスクとなり、エージェンティックAIが攻撃者に悪用されやすく、魅力的な標的となっています。

私たちはもはや受動的なチャットボットの時代を超え、自律型エージェントの時代に突入しました。この変化は、AIを単なるコンテンツ生成ツールから、コード実行やデータ修正が可能なエンタープライズインフラの積極的な構成要素へと変貌させ、脅威の様相を一変させています。

従来のセキュリティツールは人間の行動異常を検知するために設計されていました。AIエージェントが1万回連続で完璧にコードを実行しても、これらのシステムには正常に見えます。しかし、そのエージェントは攻撃者の指示を実行しているかもしれません。

AI主導の攻撃がピークに達した際、AIは数千件のリクエストを、しばしば1秒間に複数回発行していました―これは人間のハッカーでは到底実現できない攻撃速度です。

脅威アクターは、あらゆる言語で説得力のある誘導文を生成し、ターゲットごとにペイロードを変異させ、盗まれたデータセットを手作業では到底不可能な規模で解析しています。

防御側にとっての示唆は明確です。もはや攻撃が人間の速度で進行するとは限りません。セキュリティチームが数時間単位で対応している間に、数分でシステムが侵害される脅威と戦っているのです。

39%の「解決策」(本当の解決策ではない)

組織は何か対策が必要だと認識しています。Zscalerの調査によると、企業はデータ露出やプライバシー、コンプライアンス上の懸念からAI/MLトランザクションの約39%をブロックしています。

一方で、これはセキュリティチームが行動を起こしていることを示していますが、同時に問題の規模も浮き彫りにしています。AIトランザクションの4割がリスクとしてフラグされているのであれば、企業のAI導入アプローチの根本に何か大きな問題があるということです。

従業員が最も頻繁に使うツール―Grammarly、ChatGPT、Copilot、コーディングアシスタント―は、最も多くブロックされ、最も機密データと深く関わるアプリケーションでもあります。これらのアプリは日々の業務フローの中心にあり、必要不可欠であると同時に危険性も高いのです。

規制による大きな転換点

OpenAIは、明確な法的根拠なく個人データを使ってモデルを訓練し、十分な年齢確認措置を講じなかったとして、イタリアのデータ保護当局から1,500万ユーロの制裁金を科されました。2026年にはEU AI法の下で高リスクシステムに対する包括的なコンプライアンスフレームワークが完全施行され、最初の本格的な執行波が強まっています。

これはもはや技術的な問題だけではありません。規制上の問題でもあります。適切なガバナンスフレームワークなしにAIシステムを導入した組織は、EU AI法の下で最大3,500万ユーロまたは世界売上高の7%の罰金(既存のGDPR制裁に加えて)を科されるリスクに直面します。

Zscalerレポートで記録されたDLP違反―規制対象の医療データや財務記録、個人識別情報をAIプラットフォーム経由で共有しようとする試み―は、まさにコンプライアンス調査の引き金となる行為です。

実際に有効な対策とは

セキュリティ業界の対応は、いくつかの重要な原則に集約されつつあります。

第一に、可視性です。見えないものは守れません。組織は、すべてのAIアプリケーション、組み込み機能、モデルが自社データとどのように関わっているかを包括的に棚卸しする必要があります。これには、従業員が個人アカウントで利用するシャドーAIツールも含まれます。

第二に、AIトラフィックを重要なセキュリティ領域として扱うことです。多くの企業は、利用中のAIアプリケーションやサービス、生成AIツール、AI開発環境、SaaSへの組み込みAI、モデル、エージェント、基盤インフラまで、全体像を把握できていません。脅威が正規チャネルを通じてデータを外部に流す場合、従来の境界型セキュリティは機能しません。

第三に、継続的なテストです。レッドチーム演習で記録された16分の侵害時間が示す通り、AIシステムは攻撃環境下で即座に破綻します。これは一度きりのペネトレーションテストで済む問題ではなく、継続的な検証が必要です。

第四に、権限の衛生管理です。AIツールやエージェントも人間のユーザーと同様に最小権限の原則で運用すべきです。スケジューリング支援用のAIアシスタントに顧客データベースへのアクセス権は不要です。

第五に、重要な意思決定には人間の介在を必須とするチェックポイントを設けることです。エージェントが資金を移動したり、データを削除したり、アクセス制御ポリシーを変更したりする場合は、必ず明示的な人間の承認が必要です。

不都合な真実

AIは生産性向上ツールから、自律的かつマシンスピードでの攻撃の主要な経路へと変貌しました。

これはマーケティング用語ではありません。ほぼ1兆件のデータトランザクションが、AIセキュリティの現実を物語っています。

AIセキュリティを後回しにし、生産性向上の恩恵を享受した後で対策を考えようとする組織は、セキュリティチームの対応が間に合わない速度でインシデントが発生するリスクを抱えています。

AIを全面的に停止せず、スケールに応じてガバナンスを確立できた企業は競争優位を得るでしょう。そうでない企業は、なぜ18,000テラバイトもの企業データが本来あるべきでない場所に流出したのかを、規制当局や顧客、株主に説明する羽目になります。

Zscalerの創業者兼CEOであるJay Chaudhry氏は次のように述べています。「AIはビジネスの在り方を変えていますが、従来のセキュリティアプローチはAIを守るために設計されていません。ビジネスリーダーは、さらなるポイント製品ではなく、包括的なソリューションを求めています。」

この問題に先手を打つための猶予は、急速に失われつつあります。攻撃者は、ほとんど人手を介さずに侵入の大部分を自動化できるようになりました。自動化されたAI主導の防御を導入しない企業は、従来型セキュリティモデルでは到底追いつけないスピードで進化する脅威に後れを取ることになるでしょう。

選択肢は、AIを導入するかセキュリティを維持するか、ではありません。適切なガバナンスのもとでAIを導入するか、すでに到来した危機に無防備で突入するか、なのです。

Kiteworksがどのように支援できるかについては、カスタムデモを今すぐご予約ください

よくある質問

ThreatLabz 2026 AIセキュリティレポートは、Zscalerが2026年1月27日に発表した年次サイバーセキュリティ分析で、エンタープライズAIの利用状況やセキュリティ脆弱性を調査しています。本レポートは、2025年1月から12月までの間に、Zscaler Zero Trust Exchangeプラットフォームを利用する約9,000の組織における9893億件のAIおよび機械学習トランザクションを分析しました。

Zscalerのレッドチームテストによると、エンタープライズAIシステムの最初の重大な障害までの中央値はわずか16分で、90%のシステムが90分以内に侵害されました。最も極端なケースでは、セキュリティ防御が1秒で突破されており、AIシステムが攻撃環境下で極めて短時間で破綻することが示されています。

エンタープライズデータのAIおよびMLアプリケーションへの転送は2025年に18,033テラバイトに達し、前年比93%増となりました。Grammarlyは3,615テラバイト、ChatGPTは2,021テラバイトの企業コンテンツを受け取り、これらのプラットフォームは企業インテリジェンスの最大級の保管庫となっています。

シャドーAIとは、企業のセキュリティ制御を回避して個人アカウント経由で生成AIツールを無断利用することを指します。調査によると、従業員の77%が生成AIツールにデータを貼り付けており、その82%が管理されていない個人アカウント経由で行われているため、データ損失防止システムに大きな死角が生まれ、機密企業情報が監督なしに露出しています。

金融・保険業界は取引量で最もAI活用が進んでおり、本レポートで観測された全AI/MLトラフィックの23%を占めています。テクノロジーと教育分野は前年比202%、184%と最も急速な成長率を記録しました。エンジニアリング部門は全エンタープライズAI利用の約半数(48.9%)を占め、次いでIT(31.8%)が続きます。

エージェンティックAIとは、人間の監督なしに偵察・侵害・ネットワーク内の横展開など複雑なタスクを自律的に実行できるAIシステムを指します。セキュリティ専門家は、エージェンティックAIが主要な攻撃経路となりつつあり、マシンスピードでサイバー攻撃を拡大・適応させるため、従来の人間行動パターンの異常検知に依存したセキュリティツールでは対応が困難になると警告しています。

追加リソース

  • ブログ記事 ゼロトラストアーキテクチャ:決して信頼せず、常に検証
  • 動画 Microsoft GCC High:防衛請負業者がよりスマートな優位性を求める理由
  • ブログ記事 DSPMでフラグされた機密データをどのように保護するか
  • ブログ記事 ゼロトラストアプローチで生成AIへの信頼を構築する方法
  • 動画 ITリーダーのための機密データ安全保管の決定版ガイド

まずは試してみませんか?

Kiteworksを使用すれば、規制コンプライアンスの確保とリスク管理を簡単に始めることができます。人、機械、システム間でのプライベートデータの交換に自信を持つ数千の組織に参加しましょう。今すぐ始めましょう。

Table of Content
Share
Tweet
Share
Explore Kiteworks