2026年AIデータ危機:今こそ機密情報を守ろう
数字は驚異的です。わずか1年で、生成AIアプリケーションを利用する従業員数は3倍に増加しました。これらのツールに送信されるデータ量は6倍に増えています。そして、機密データのポリシー違反の発生率は?2倍になっています。
ようこそ2026年へ。AIの急速かつ多くの場合統制されていない導入が、ほとんどの組織がようやく理解し始めたばかりのAIリスクを生み出しています。
主なポイント
- 生成AIの導入がセキュリティ管理を上回るペースで進行。生成AIアプリケーションを利用する従業員数は3倍に増加し、データポリシー違反は2倍に増加。平均的な組織では、毎月223件のAI関連データセキュリティインシデントが発生しています。全体の半数の組織はいまだにAIアプリケーションに対する強制力のあるデータ保護ポリシーを持たず、機密データが検知されることなく露出しています。
- シャドーAIは依然として重大なデータ露出リスク。生成AIユーザーのほぼ半数が、組織の管理外にある個人用AIアプリケーションを利用し続けています。ソースコード、規制対象データ、知的財産が、こうした統制されていないサービスに頻繁に流出し、セキュリティチームが監視できないコンプライアンス違反や競争リスクを生み出しています。
- エージェンティックAIがマシンスピードでインサイダー脅威を増幅。エンタープライズリソース全体で複雑なアクションを自律的に実行するAIシステムは、人間のインサイダーよりもはるかに速くデータ露出を引き起こす可能性があります。設定ミスや幻覚を起こしたAIエージェントは、数分で数千件の機密記録を漏洩させる恐れがあり、マシンスピードの運用に特化した新たなセキュリティフレームワークが求められています。
- 個人用クラウドアプリが依然としてインサイダーインシデントの主因。インサイダー脅威インシデントの60%は個人用クラウドアプリの利用が関与しており、ユーザーの31%が毎月会社データを個人用アプリにアップロードしています。これらのポリシー違反の半数以上が規制対象データであり、個人用アプリのガバナンスもAIセキュリティ施策と同等に重要です。
- ガバナンス重視のAI戦略が、妥協なきイノベーションを実現。成功する組織は、従業員ニーズを満たす承認済みAIツールを提供しつつ、ゼロトラストのデータアクセスと包括的な監査ログを徹底します。AIの全面的な遮断は効果がなく、持続可能なセキュリティには可視性・制御・ポリシー執行によるイノベーション推進が不可欠です。
Netskopeの2026年クラウド&脅威レポートは、私たちの現状を厳しく描き出しています。生成AIは既存のセキュリティ課題を置き換えたのではなく、まったく新たなリスクを上乗せしました。セキュリティチームは今、シャドーAI、個人用クラウドアプリ、継続的なフィッシング攻撃、信頼されたチャネル経由のマルウェア拡散が複合的に絡み合い、前例のない露出を生む複雑な脅威モデルに直面しています。
規制対象データや知的財産、競合や悪意ある第三者が狙う情報を扱う組織にとって、このレポートは警鐘であると同時に、変革のためのロードマップでもあります。
シャドーAI:見過ごされがちなセキュリティリスク
従業員がIT部門の承認前にDropboxやGoogle Driveを使い始めた時代を覚えていますか?シャドーAIも同じパターンですが、データプライバシーやコンプライアンスへの影響ははるかに深刻です。
生成AIユーザーのほぼ半数(47%)はいまだに組織管理外の個人用AIアプリケーションを利用しています。これは前年の78%からは改善していますが、それでも多くの従業員がセキュリティチームが全く可視化できないサービスに会社データを送信していることを意味します。
良いニュースとして、組織管理のAIアカウントを利用する従業員の割合は25%から62%に上昇しています。しかし問題は、個人用とエンタープライズアカウントを行き来するユーザーが増加している点です(4%から9%に増加)。これは、会社承認ツールが利便性や機能面で従業員の期待に応えていないため、代替手段を求める動機になっていることを示唆しています。
従業員のニーズとIT部門の提供するものとのギャップは、データ漏洩の温床となります。例えば、誰かが個人アカウントのChatGPTにソースコードを貼り付けてデバッグのアドバイスを求めた場合、そのコードは組織の管理外に存在することになります。営業担当者が契約書をAI要約ツールにアップロードすれば、その知的財産は社外に流出します。
違反:問題の規模
平均的な組織では、生成AIアプリケーションに関連するデータポリシー違反が毎月223件発生しています。上位四分位の組織では、この数は月2,100件に跳ね上がります。
どのようなデータが露出しているのでしょうか?内訳はCISOたちが夜も眠れない理由を如実に示しています:
ソースコードはAIリスク関連のデータポリシー違反の42%を占めます。多くの組織で開発者が最もAIを活用しており、デバッグやリファクタリング、生成のために独自コードをアップロードしています。統制されていないツールでこれを行うたびに、企業秘密が露出するリスクが生じます。
規制対象データは違反の32%を占めます。これには個人情報、財務記録、医療データなどが含まれ、GDPRやHIPAAなどの規制違反によるペナルティの対象となります。
知的財産は違反の16%を占めます。契約書、内部戦略、研究成果などの機密資料が分析や要約のためにアップロードされています。
パスワードやAPIキーが残りを占めます。これらはコードサンプルや設定ファイル内に紛れ込むことが多く、攻撃者への直接的な侵入口となります。
特に懸念されるのは、全体の半数の組織が生成AIアプリケーションに対する強制力のあるAIデータガバナンスポリシーをいまだに持っていないことです。このような環境では、従業員が機密データをAIモデルに送信しても全く検知されません。毎月223件という数字は組織が把握できている範囲に過ぎず、実際の露出はさらに深刻である可能性が高いのです。
表1:データ種別ごとのAIデータポリシー違反
| データ種別 | 違反の割合 |
|---|---|
| ソースコード | 42% |
| 規制対象データ(PII、財務、医療) | 32% |
| 知的財産 | 16% |
| パスワード・APIキー | 10% |
エージェンティックAIの増幅効果
生成AIのガバナンス体制がようやく整い始めた矢先、新たなリスクカテゴリーであるエージェンティックAIシステムが登場しています。
従来のAIツールが個別のプロンプトに応答するのに対し、エージェンティックAIシステムは内部・外部リソース全体で複雑かつ自律的なアクションを実行します。データベースへのアクセス、API呼び出し、他ソフトウェアとの連携、最小限の人間の監督で意思決定まで行います。
導入の勢いも急速です。現在、33%の組織がAzure経由でOpenAIサービスを利用し、27%がAmazon Bedrock、10%がGoogle Vertex AIを活用しています。これらのプラットフォームへのトラフィックは、過去1年で3倍から10倍に増加しました。
セキュリティへの影響は極めて大きいです。機密データにアクセスできるエージェンティックシステムは、人間のインサイダーでは到底及ばない速度で被害をもたらします。設定ミスのエージェントが数分で数千件の記録を露出させることも。大規模言語モデルに内在する「幻覚」は、エージェンティックなワークフロー内でエラーを連鎖させ、壊滅的なデータ露出につながる恐れがあります。
AIエージェントがエンタープライズリソースに直接接続できるModel Context Protocol(MCP)などの新技術は、攻撃対象領域をさらに拡大します。これらの接続は、意図せず機密情報を露出させたり、悪意ある攻撃者がシステムやワークフローを侵害する経路を生み出す可能性があります。
根本的な課題は、エージェンティックAIシステムが人間のオペレーターと同等のデータアクセス権を持ちながら、リスクのある判断で立ち止まることなくマシンスピードで行動できてしまう点です。
個人用クラウドアプリ:見過ごされがちなインサイダー脅威
AIが話題を独占する一方で、個人用クラウドアプリケーションは依然としてインサイダーデータ露出の最も重大な要因の一つです。インサイダー脅威インシデントの60%が個人用クラウドアプリの利用に関与しており、問題は拡大しています。
過去1年で、個人用クラウドアプリにデータをアップロードするユーザーの割合は21%増加しました。現在、平均的な組織ではユーザーの31%が毎月個人用アプリにデータをアップロードしており、AIアプリケーションを利用する人数の2倍以上です。
関与するデータの種類はAIリスク違反と似ていますが、強調点が異なります。個人用アプリのポリシー違反の54%が規制対象データであり、承認環境外に個人情報が流出し続けるリスクを反映しています。知的財産が22%、ソースコードが15%、パスワードやキーが8%を占めます。
最も管理対象となっている個人用アプリはGoogle Drive(43%)、次いでGmail(31%)、OneDrive(28%)です。興味深いことに、個人用ChatGPTは28%で4位となっており、多くの組織が従来のクラウドプラットフォームに比べAIガバナンスへの対応が遅れていることを示しています。
個人用アプリへのデータ送信にリアルタイム制御を導入している組織は77%に達し、前年の70%から大きく進展しました。しかし、約4分の1の組織はいまだにこうした保護策を持たず、偶発的・悪意的なデータ漏洩のリスクにさらされています。
表2:データ種別ごとの個人用クラウドアプリポリシー違反
| データ種別 | 違反の割合 |
|---|---|
| 規制対象データ(PII、財務、医療) | 54% |
| 知的財産 | 22% |
| ソースコード | 15% |
| パスワード・APIキー | 8% |
フィッシングとマルウェア:従来型の脅威も依然健在
新たなリスクが古いリスクを消すわけではありません。フィッシングは依然として根強い課題であり、毎月1万人あたり87人がフィッシングリンクをクリックしています。これは前年から27%減少していますが、大規模組織にとっては依然として大きな露出リスクです。
フィッシングの手口も進化しています。攻撃者はOAuth同意フィッシングを多用し、ユーザーに悪意あるアプリへのクラウドアカウントアクセス権を与えさせることで、パスワードや多要素認証を完全に回避します。リアルタイムでセッションクッキーを盗むリバースプロキシ型フィッシングキットと組み合わさり、フィッシングは単純なメール詐欺から高度なアイデンティティ層攻撃へと変貌しています。
Microsoftはクラウドフィッシングクリックの52%で最もなりすましに使われるブランドとなり、次いでHotmail、DocuSignが続きます。標的も大きく変化し、銀行ポータルがフィッシング誘導の23%、政府サービスが21%を占め、攻撃者の焦点が金融詐欺やID窃盗に移っていることが分かります。
信頼されたチャネルを介したマルウェア配布もリスクを増大させています。GitHubは最も悪用されているプラットフォームで、12%の組織が毎月従業員のマルウェア露出を検知しています。OneDriveやGoogle Driveも続きます。攻撃者はユーザーがこれらの馴染み深いプラットフォームを信頼していることを利用し、感染ファイル拡散の経路としています。
SaaSプラットフォーム間やパッケージエコシステム間の信頼関係を狙うサプライチェーン攻撃も激化しています。npmパッケージレジストリ、クラウドアプリ間のAPI連携、接続されたSaaSサービスは、従来のセキュリティ管理では見落とされがちな潜在的な侵入口となっています。
ガバナンス重視のAI戦略の構築
これらの脅威が複合的に存在する現状では、包括的な対応が不可欠です。AIデータガバナンス、クラウドセキュリティ、従来型の脅威対策を別々の施策として扱う時代は終わりました。これらは統合された戦略として機能しなければなりません。
効果的なガバナンスは可視性から始まります。見えないデータは守れません。組織は従業員がどのAIアプリケーションを利用し、どのようなデータが流れているのか、その利用がセキュリティポリシーやコンプライアンス要件に合致しているかを把握する必要があります。
次に制御です。正当なビジネス目的がなく、過度なリスクをもたらすアプリケーションをブロックするのは、シンプルながら効果的な手段です。現在、90%の組織が何らかの生成AIアプリケーションを積極的にブロックしており、平均で10個のアプリがブロックリストに載っています。ZeroGPT(45%)、DeepSeek(43%)が上位を占めており、データ取扱いや透明性への懸念が背景にあります。
承認済みアプリケーションには、データ損失防止(DLP)ポリシーが不可欠です。これらのポリシーは、ソースコード、規制対象データ、認証情報、知的財産などの機密情報が組織の管理外に出る前に検知します。しかし、生成AIアプリケーションでDLPを利用している組織は全体の50%にとどまり、個人用クラウドアプリでは63%です。
最後に、エージェンティックな未来への備えが必要です。AIシステムが自律性を高める中、セキュリティフレームワークも継続的な監視、最小権限アクセス、マシンスピード運用に特化した堅牢な制御を含むよう進化しなければなりません。
KiteworksによるセキュアなAI統合の実現
ここでKiteworksのようなプラットフォームが不可欠となります。AIを制御不能なリスクとして遮断するのではなく、KiteworksはAIイノベーションを受け入れつつ、ビジネスに必要なセキュリティとコンプライアンス体制を維持できるようにします。
基盤となるのはゼロトラストAIデータ保護です。AIシステムは、すべてのやり取りでゼロトラストアーキテクチャ原則を強制するセキュアゲートウェイを介してエンタープライズデータに接続します。ロールベースアクセス制御や属性ベースアクセス制御により、AIの操作はユーザー権限を正確に継承します。重要なのは、データがプライベートデータネットワークから外部に出ることがない点です。AIは、すべてのアクセス要求が認証・認可・記録される統制された環境で情報とやり取りします。
包括的なデータガバナンスも自然に実現します。すべてのAI操作は既存のデータガバナンスフレームワークで自動的に管理されます。データ分類・機密性・コンテキストに基づく動的なポリシー執行により、どのAIシステムがどのデータセットにアクセスできるかをきめ細かく制御します。データレジデンシーも維持され、機密情報が第三者AIサービスに流出することはありません。
完全な監査・コンプライアンス機能も備わっています。改ざん不可能な監査ログがすべてのAI操作(ファイルアクセス、クエリ、データ取得)を記録。リアルタイムの追跡とレポートで、どのAIシステムがいつどのデータにアクセスしたかを可視化します。SIEM連携により継続的な監視と脅威検知も可能です。これらの機能は、GDPR、HIPAA、FedRAMPなど、データ取扱いの説明責任が求められる規制コンプライアンス要件への対応を直接サポートします。
エンタープライズグレードのセキュリティ対策が全体のアーキテクチャを支えます。TLS 1.3暗号化でAIシステムへのデータ転送を保護。ファイル・ディスクレベルの二重暗号化で保存データも守ります。レートリミットでAIシステムの乱用やリソース枯渇を防止。多層防御の強化された仮想アプライアンスが基盤となります。
このアプローチにより、データ露出のないセキュアなRAG(検索拡張生成)が可能になります。組織は独自データでAIモデルを強化しつつ、保護を維持できます。イノベーションを加速しながらも、セキュリティやコンプライアンス体制を損なうことはありません。
今後の道筋
2026年のサイバーセキュリティ環境では、組織は加算的な脅威モデルの管理が求められます。生成AIは既存リスクを置き換えたのではなく、それらを増幅し、まったく新しい露出カテゴリーをもたらしています。
成功の鍵は、これらの課題を切り離してではなく、相互に関連したものとして捉えることです。シャドーAI、個人用クラウドアプリ、フィッシング攻撃、サプライチェーン攻撃はいずれも、従業員の働き方とセキュリティチームの可視性・制御のギャップを突いています。
この環境で成功する組織は、イノベーションを促進しつつガバナンスを徹底する企業です。従業員のニーズに合ったAIツールを提供し、機密データが保護された環境から決して流出しないようにします。データが組織内でどのように流れるか(AIアプリケーション、個人用クラウドサービス、外部パートナーへの流れ)を完全に可視化します。
逆に、AI導入を全面的にブロックしようとするアプローチは、すでに効果がないことが証明されています。従業員はポリシーに関係なくこれらのツールを使う方法を見つけてしまいます。唯一持続可能な道は、禁止ではなく推進を通じて保護するガバナンス、業務を妨げずに守るガバナンスです。
これこそがKiteworksのビジョンです。AIが生産性を加速しながらも、AIデータ保護や規制コンプライアンスを損なわない、ガバナンス重視のアプローチ。脅威が防御の進化スピードを上回る世界で、このバランスはもはや理想ではなく、不可欠なのです。
よくある質問
シャドーAIとは、従業員が組織の可視性・ポリシー・管理外でAIアプリケーションを利用することを指し、通常は会社管理のツールではなく個人アカウントを通じて行われます。現在、生成AIユーザーの47%が依然として個人用AIアプリケーションに依存しており、セキュリティチームが監視・管理できないサービスに機密データを送信しています。この統制されていない利用は、ソースコード、規制対象データ、知的財産、認証情報が第三者AIサービスに頻繁に流出し、重大なデータ露出リスクを生み出します。組織は、従業員ニーズを満たす承認済みAIツールの提供と、無許可のデータ転送を検知するデータ損失防止ポリシーの導入により、シャドーAIリスクを低減できます。
生成AIアプリケーションは、従業員が要約、デバッグ、コンテンツ生成などの目的でソースコードや規制対象データ、知的財産などの機密情報をAIツールにアップロードすることでデータポリシー違反を引き起こします。平均的な組織では、AIアプリケーションに関連するデータポリシー違反が毎月223件発生しており、そのうちソースコードが42%、規制対象データが32%を占めます。これらの違反は、AIのワークフローが通常、内部データを外部サービスにアップロードすることを必要とし、多くの組織がその検知制御を持たないために発生します。全体の半数の組織はいまだに生成AIに対する強制力のあるデータ保護ポリシーを持っておらず、実際の機密データ露出率は報告されているインシデントよりもはるかに高いと考えられます。
エージェンティックAIシステムは、データベースへのアクセス、API呼び出し、他ソフトウェアとの連携など、内部・外部リソース全体で複雑かつ自律的なアクションを最小限の人間の監督で実行するAIアプリケーションです。これらのシステムは、マシンスピードでデータ露出を引き起こすため、インサイダーリスクを増幅させます。設定ミスのエージェントは、従来の人間インサイダーが数時間・数日かかるところを数分で数千件の記録を漏洩させることもあります。大規模言語モデルの非決定論的な性質により、エージェンティックなワークフロー内での「幻覚」が重大な組織的損害や意図しないデータ露出を連鎖的に引き起こす恐れがあります。エージェンティックAIを導入する組織は、継続的な監視、最小権限アクセス制御、そして自律型AI運用に特化した堅牢なガバナンスフレームワークを実装する必要があります。
個人用クラウドアプリケーションは、従業員が組織の管理外に機密データを転送できる監視されていないチャネルを提供することで、インサイダー脅威リスクに寄与します。インサイダー脅威インシデントの60%が個人用クラウドアプリの利用に関与しており、ユーザーの31%が毎月個人用アプリにデータをアップロードしています。これはAIアプリケーションを利用する人数の2倍以上です。個人用アプリのポリシー違反の54%は規制対象データ、22%が知的財産、15%がソースコードです。組織は、リアルタイムのデータ損失防止制御の導入、個人用アプリへの機密データアップロードのブロック、従業員への適切なデータ取扱い指導などで、これらのリスクを軽減できます。
効果的なAIデータガバナンス戦略は、可視性・制御・積極的なポリシー執行を組み合わせ、AIイノベーションを促進しながら機密データを保護します。組織はまず、従業員がどのAIアプリケーションを利用し、どのようなデータが流れているかを完全に可視化し、正当なビジネス目的のないツールや過度なリスクをもたらすツールをブロックするポリシーを実装すべきです。データ損失防止ポリシーは、ソースコード、規制対象データ、認証情報、知的財産などの機密情報が管理環境外に出る前に検知します。すべてのAIデータアクセス要求を認証し、包括的な監査ログを維持し、最小権限原則を徹底するゼロトラストアプローチが、イノベーションとコンプライアンスの両立を支える持続可能なAIデータガバナンスの基盤となります。
組織は、技術的制御と明確なポリシー、従業員教育を組み合わせたガバナンス重視のアプローチを実施することで、AIアプリケーションへの機密データ流出を防げます。データ損失防止ソリューションで、AIアプリケーションに流れるすべてのコンテンツを検査し、ソースコード、規制対象データ、知的財産、認証情報の無許可サービスへの転送をブロックします。従業員の生産性ニーズを満たす承認済みAIツールを提供することで、個人アカウント経由のシャドーAI利用を抑制できます。ゼロトラストアーキテクチャにより、AIシステムはセキュアゲートウェイを通じてのみデータにアクセスし、ロールベースの権限を強制し、信頼できる環境内でデータ主権を維持し、コンプライアンス報告用の改ざん不可能な監査ログを作成します。