How 77% of Organizations Are Failing at AI Data Security

77%の組織がAIデータセキュリティ対策に失敗している理由

組織がAI導入を急速に進める一方で、実に77%が最も重要な資産であるデータを守るための基本的なセキュリティ対策を欠いています。Accentureの「State of Cybersecurity Resilience 2025」レポートが示すこの衝撃的な統計は、数多くの組織が危険にさらされている現状を浮き彫りにしています。

このレポートは、17カ国の2,286人のセキュリティ担当役員を対象に調査を行い、イノベーションと保護の間で揺れる業界の厳しい現実を描き出しています。AI導入が業界全体で80%に達すると予測される中、技術進化とセキュリティ体制のギャップは拡大し続けています。顧客の機密データや独自情報、重要なビジネスインテリジェンスを扱う組織にとって、このギャップは単なる技術的課題ではなく、存在そのものを脅かすリスクです。

自社のセキュリティに自信がありますか。その証明はできますか

今すぐ読む

この状況を特に緊急にしているのは、AI関連の脅威が進化するスピードです。高度なデータポイズニング攻撃からAIを活用したソーシャルエンジニアリングまで、攻撃者は組織が守りきれない同じ技術を利用しています。その結果、データセキュリティ、コンプライアンス、プライバシーのあらゆる面で脆弱性が拡大する「完璧な嵐」が生まれています。

データセキュリティ警報:数字が示す現実

77%の問題:基礎的なセキュリティの欠如

Accentureの調査で最も衝撃的だったのは、77%の組織がデータとAIの基礎的なセキュリティ対策を欠いているという事実です。これは最先端の防御や高度な脅威検知の話ではなく、AI導入の土台となるべき基本的なセキュリティ対策ができていないということです。

機密情報の転送中、保存中、処理中を守るために暗号化アクセス制御を完全に活用している組織はわずか25%です。よく考えてみてください。AIシステムで大量のデータを扱う企業の4分の3が、包括的な暗号化を導入していないのです。まるで紙の壁で金庫を作るようなものです。

ここでプライベートデータネットワークのアプローチがセキュリティ体制を大きく変えます。エンドツーエンド暗号化と、RBACABACによるきめ細かなアクセス制御をNIST CSFに沿って実装することで、「露出ゾーン」から安全なAIデータ通信環境へと移行できます。重要なのは、ファイル転送メールセキュリティ、ウェブフォームを一つのガバナンスフレームワークで統合し、個別のセキュリティツールをバラバラに管理しないことです。

経営層もこうした脆弱性に気付き始めています。テクノロジーリーダーの半数が、大規模言語モデルが機密データを露出させることに深刻な懸念を示し、57%は攻撃者がトレーニングデータを操作してAIモデルの完全性を損なうことを恐れています。これらは仮説ではなく、実際に現在進行中の攻撃に基づく懸念です。

例えば、Morris II AIワームがあります。これはCornell Techなどの研究者が開発した概念実証で、敵対的プロンプトがテキストや画像ファイルに埋め込まれ、人間の介入なしにAIシステムを操作できることを示しています。このワームはChatGPTやGeminiのようなモデルを騙して、機密データを抽出したり、AIアシスタントを介してスパムを送信することも可能です。研究者ができるなら、資金力のある攻撃者が何をするか想像に難くありません。

AIシステムにおけるクラウドセキュリティの脆弱性

AI運用を支えるクラウドインフラも大きな脆弱性となっています。AIがクラウドベースの処理やストレージに大きく依存しているにもかかわらず、Accentureによると83%の組織が、統合された監視・検知・対応機能を備えた安全なクラウド基盤を構築できていません。

さらに具体的な問題も深刻です。Amazon Bedrockを利用している組織のうち、14%は少なくとも1つのAIトレーニングバケットへのアクセス制限を設けていません。つまり、不正ユーザーがトレーニングデータへアクセス・改ざん・窃取できる可能性があります。Amazon SageMakerユーザーではさらに深刻で、91%が、万一侵害された場合にすべてのファイルへの不正アクセスを許すノートブックを少なくとも1つ持っています。

これらは単なる技術的な見落としではなく、AIシステムとクラウドインフラの相互作用を正しく理解できていない根本的な失敗です。AIモデルは複数の地域・ソースからデータを処理するため、こうした脆弱性は指数関数的に拡大します。1つのリージョンでバケット設定を誤るだけで、世界中の顧客データが露出する可能性があります。

対策を怠るコスト

こうしたセキュリティギャップを放置する組織は、深刻な結果に直面します。Accentureの調査では、企業をセキュリティ成熟度で「再発明準備ゾーン(上位10%)」「進行ゾーン(27%)」「露出ゾーン(63%)」の3つに分類しています。その結果は非常に明確です。

露出ゾーンの企業は、高度な攻撃(AIを活用したサイバー攻撃を含む)を受ける確率が69%高くなります。また、AI投資のリターンは再発明準備ゾーンの企業に比べて1.6倍低くなります。これは単に攻撃を回避する話ではなく、AI投資から価値を引き出す根本的な能力の問題です。

財務的な影響は侵害による直接損失にとどまりません。セキュリティ体制が弱い組織は技術的負債が1.7倍積み上がり、後からセキュリティを強化しようとするほどコストが膨らむ悪循環に陥ります。さらに、デジタル経済で最も重要な資産である顧客からの信頼も失われます。再発明準備ゾーンの企業は、露出ゾーンの企業に比べて顧客信頼度の向上が1.6倍高いと報告しています。

データコンプライアンス:規制の迷路を乗り越える

AI規制の急速な進化

AI技術の進化についていくのが「消防ホースから水を飲む」ように感じるなら、AI規制への対応は「複数の消防ホースから同時に水を飲む」ようなものです。各国・地域で規制がかつてないスピードで変化し、それぞれ異なる要件・スケジュール・罰則が存在します。

EUではAI法がグローバルな事業運営にも影響を及ぼす包括的な基準を設定しています。米国は連邦ガイドラインと州レベルの規制が競合する断片的なアプローチを取っています。一方、アジア太平洋諸国はデータローカライゼーションや越境データ転送に独自の要件を設けるなど、独自の枠組みを構築しています。

この規制のパッチワークは、地政学的な緊張が加わることでさらに複雑になります。貿易制限や関税、国際関係の変化により、組織はサプライチェーンやデータフローを再構成せざるを得なくなります。そのたびに新たなコンプライアンス義務が発生したり、従来は適法だった運用が規制リスクにさらされることもあります。

組織が直面する課題

この規制環境への組織の備えについて、数字が厳しい現実を物語っています:

コンプライアンス領域 現在の導入率 リスクレベル 地域差
AI導入前のセキュリティ評価 37% 重大 EU: 42%、米国: 35%、APAC: 33%
明確なGenAIポリシー 22% EU: 28%、米国: 20%、APAC: 18%
AIシステムのインベントリ 重大 業界によって異なる
地域別コンプライアンス 15% 規制業界で最も高い

AIのサイバーセキュリティへの変革的な影響を66%が認識しているにもかかわらず、AIツールの導入前にセキュリティ評価を行うプロセスを持つ組織はわずか37%です。認識と行動のギャップは、規制環境下では特に危険です。無知は免罪符になりません。

AIシステムの包括的なインベントリがないことは特に深刻です。どんなAIシステムを稼働させているのか、どこでデータを処理しているのか、どう相互接続しているのかを把握しなければ、コンプライアンスは不可能です。地図なしで航海するようなもので、目的地にたどり着くどころか、知らぬ間に規制違反に陥るリスクが高まります。

プライベートデータネットワークのアプローチは、地理的な展開にかかわらず一貫したコントロールを提供することで、複数規制へのコンプライアンスを大幅に簡素化します。HIPAAGDPRFedRAMPなどの要件にも、クラウド・オンプレミス・ハイブリッドといった柔軟な展開オプションを維持しつつ、データ主権要件を満たす統一ガバナンスを実現できます。

業界特有のコンプライアンス課題

業界ごとに固有のコンプライアンス課題があり、一般的な規制の複雑さをさらに増しています。医療機関は、AIシステムの大規模データ処理を実現しつつ、HIPAA要件を満たさなければなりません。効果的なモデル開発に大量データが必要な中、患者のプライバシーをどう守るのかが課題です。

金融サービス業界はさらに複雑です。データレジデンシー要件により、顧客情報は特定の管轄区域外に持ち出せないことが多い一方、AIモデルは多様なグローバルデータで学習するほど精度が高まります。ここにコンプライアンスと能力の間の絶え間ない緊張が生まれます。

小売業界は一見規制が緩やかに見えますが、州や国ごとに異なる消費者保護法の網をくぐり抜けなければなりません。ある地域で合法なレコメンデーションエンジンが、別の地域ではプライバシー法違反になることもあり、国境を越えて事業展開する企業にとっては大きな運用上の課題となります。

適応型コンプライアンスフレームワークの構築

この規制の迷路を生き抜く鍵は、規制の変化に迅速に適応できるコンプライアンスフレームワークを構築することです。静的なポリシーや手順を超え、ゼロから作り直すことなく新要件を取り込める動的な仕組みが必要です。

成功しているフレームワークには共通点があります。第一に、特定の規制を超えた明確なデータ分類とガバナンス原則に基づいていることです。どんなデータを持ち、どこに保存し、どう使っているかを正確に把握できれば、新たな要件への対応も容易になります。

第二に、定期的な評価と更新サイクルを組み込んでいます。年1回のコンプライアンスレビューはもはや時代遅れであり、四半期ごと、場合によっては毎月の見直しが必要です。手間に思えるかもしれませんが、事後に違反が発覚するよりはるかに低コストです。

最後に、最初から地域ごとの柔軟性を組み込んでいます。全社一律のポリシーではなく、コアとなるセキュリティ原則を維持しつつ、各地域に合わせてカスタマイズ可能なモジュール型アプローチを採用しています。

AI時代のプライバシー:従来型アプローチを超えて

従来型IAMの限界

従来のIDおよびアクセス管理(IAM)システムは、ユーザーが特定アプリケーションに定義された権限でアクセスする時代を前提に設計されていました。しかしAIはすべてを変えます。モデルは複数システムにまたがる膨大なデータセットへのアクセスを必要とし、従来のセキュリティフレームワークでは考えられない権限が求められることもあります。

数字は厳しい現実を示しています。ゼロトラスト・アーキテクチャを完全に導入している組織はわずか10%に過ぎません。AIモデルがクラウド環境を横断してデータにアクセスし、エコシステム全体に脆弱性を広げる現状では、従来の境界型セキュリティはもはや通用しません。

ここでAI特化型ソリューションの重要性が増します。Kiteworks AI Data Gatewayは、エンタープライズAIシステムの安全なデータアクセスという課題に特化し、データガバナンスとコンプライアンスを維持しながらAIの可能性を引き出すことを可能にします。AI導入スピードとセキュリティ対策のギャップを埋めるため、ゼロトラスト・データ交換機能を提供します。

AI環境では「エフェメラルアクセス(短期的な一時アクセス)」の概念が極めて重要です。従来のユーザーが特定システムへ継続的にアクセスするのとは異なり、AIモデルはトレーニング時に一時的かつ高権限で大規模データにアクセスし、推論時には最小限のアクセスしか必要としません。従来型IAMではこうした動的要件に対応できず、攻撃者に悪用されるセキュリティギャップが生じます。

プライバシー強化技術:新たな必須要素

先進的な組織は、AIの能力とデータ保護を両立させるためにプライバシー強化技術(PETs)を活用し始めています。中でもシンセティックデータ生成は、実データの統計的特性を維持しつつ、実際の機密情報を露出させずにモデルを訓練できる強力な手段として注目されています。

導入率は競争優位性を物語っています。再発明準備ゾーンの組織では、86%がAI関連データを正しくラベル付け・分類し、高度なプライバシー制御を実現しています。単なる技術導入にとどまらず、データがAIシステムをどう流れるかを根本から見直しています。こうしたレベルのデータ分類を支える高度なガバナンス機能は、AIセキュリティを本気で考える組織にとって不可欠になりつつあります。

データマスキングやトークナイゼーションも追加の防御層となり、万一システムが侵害されても、露出したデータの価値を攻撃者にとって限定的なものにします。リアルタイムの異常検知も重要な機能で、不審なアクセスパターンやインサイダー脅威を特定します。

これらの技術が連携することで、多層防御が実現します。シンセティックデータで攻撃対象を減らし、マスキングで利用中データを守り、異常検知で脅威を特定することで、AIの能力を損なうことなくプライバシーを維持できます。

サードパーティAIリスク:見落とされがちなプライバシー脅威

最も見落とされがちなプライバシーリスクは、サードパーティAIサービスや事前学習済みモデルにあります。組織はクラウドベースのサービスやベンダーが訓練した専門モデルなど、外部AI機能への依存を強めています。そのたびに新たな脆弱性が生まれます。

サプライチェーンリスクは現実であり、拡大しています。ベンダーによるAIセキュリティコントロールが不透明なままでは、組織は「見えないリスク」にさらされます。外部プロバイダーが十分なセキュリティを維持していると信じるしかなく、実際の検証や継続的な監視が行われていないケースが多いのです。

先進的な組織は、従来型のセキュリティアンケートを超えた厳格なベンダー評価プロトコルを導入しています。トレーニングデータの出所、モデルアーキテクチャ、セキュリティコントロールの透明性を求め、セキュリティ監査やインシデント通知の契約要件も盛り込んでいます。

地理的なプライバシー要件

プライバシー要件は地域によって大きく異なり、グローバル企業にとってさらなる複雑性をもたらします。欧州のGDPRはAIによる個人データ処理に高い基準を課し、多くのモデルが苦戦する説明責任や人間による監督を求めています。

アジア市場ではデータローカライゼーションが重視され、市民データを国境内に留めることが求められます。多様なデータで学習するAIモデルにとっては大きな課題です。データを越境できない中で、どうやって効果的なモデルを構築するのかが問われます。

米国は州ごとに異なるプライバシー法が乱立し、AI特有の課題が加わる前から複雑なコンプライアンス環境となっています。カリフォルニアのCPRAやバージニアのCDPAなど、州ごとに異なる規制が存在します。

突破口:現実的なセキュリティを実現する実践的ソリューション

AI導入とセキュリティのギャップは一見埋めがたいように思えますが、実際には多くの組織が現実的な方法で克服し始めています。重要なのは「完璧なセキュリティ」ではなく「効果的なセキュリティ」を目指すことです。限られたリソースを最大限に活かすため、戦略的な投資判断が求められます。

データセキュリティの即効アクション

まずはエンドツーエンド暗号化の導入が出発点です。完全導入している組織は25%に過ぎませんが、決して難しいことではありません。最新の暗号化ソリューションは比較的短期間で導入でき、保存中・転送中・処理中のデータを即座に保護します。AIワークロードの規模や複雑さに対応できるソリューションを選ぶことが重要です。

暗号化・アクセス制御・監視・コンプライアンスを個別に導入するのではなく、複数の課題を同時に解決できる統合プラットフォームを活用することで、複雑さを軽減しつつセキュリティ体制を強化できます。セキュリティチームが慢性的に人手不足の中、このアプローチは大きな優位性となります。

AI特有のアクセス制御には、従来の権限管理とは異なる発想が必要です。ユーザーロールではなく、データフローを軸に考えます。どのモデルがどのデータに、どの期間、どんな条件でアクセスするのか。こうした制御はセキュリティチームとデータサイエンティストの協働が不可欠ですが、リスク低減という形で大きなリターンをもたらします。

AI環境では継続的な監視の意味も変わります。不正アクセスの検知だけでなく、データドリフトやモデル劣化、敵対的入力も監視対象です。AIワークロード専用に設計されたツールが必要ですが、最近はマネージドサービスとして提供されるものも多く、自社で高度な専門知識を持たなくても利用できます。

定期的なセキュリティテストも進化が求められます。従来のペネトレーションテストだけでなく、AIシステムにはトレーニングデータのポイズニングや入力操作、モデルからの機密情報抽出を試みる敵対的テストが必要です。再発明準備ゾーンの組織はこうした専門テストを6倍の頻度で実施しており、その成果がセキュリティ結果に現れています。

コンプライアンスの即効策

AIガバナンスフレームワークの構築に何ヶ月もかける必要はありません。まずは明確な責任者を決めること。自社でAIセキュリティの責任者が誰か分からなければ、それが最初に解決すべき課題です。経営層レベルで責任を明確にし、組織全体に浸透させましょう。

地域別のプレイブックを用意することで、規制の複雑さに圧倒されずに対応できます。グローバル全規制を把握しようとするのではなく、自社が事業展開する管轄区域に絞って、規制要件を具体的なコントロールやプロセスに落とし込んだシンプルなガイドを作成しましょう。

ベンダー評価プロトコルもAI時代に合わせて進化が必要です。従来のセキュリティアンケートではAI固有のリスクを把握できません。トレーニングデータの出所、モデルセキュリティ、継続的な監視能力などを評価基準に盛り込み、調達プロセスの標準項目としましょう。

コンプライアンス監視も定期レビューから継続的評価へと移行が必要です。これは常時手作業で監査するという意味ではなく、自動チェックで潜在的なコンプライアンス問題を事前に検知する仕組みを構築することです。多くの組織がコンプライアンス自動化への投資でコスト削減と成果向上を実現しています。

プライバシーファーストのAI導入

AIにおけるプライバシー設計の原則は、データ最小化から始まります。本当にそのすべてのデータが学習に必要ですか?多くの場合、厳選したデータセットだけでも十分な性能が得られます。データが少なければリスクも減ります。

技術スタックの選択はプライバシーに大きな影響を与えます。プライバシー制御が組み込まれたプラットフォームを選ぶことで、導入が大幅に簡素化されます。差分プライバシーやフェデレーテッドラーニングなど、プライバシー保護技術をコア機能として備えたソリューションを選びましょう。

業界のベストプラクティスも急速に進化しています。医療業界でAIプライバシーをリードする組織は、まずシンセティックデータでモデルを開発し、実際の患者データは管理された環境でのみ使用します。金融サービス企業は厳格なデータ分割を実施し、ある地域のデータで学習したモデルが他地域の情報にアクセスできないようにしています。

セキュリティ投資のROI

経営層が目を覚ますべき理由はこれです:セキュリティ投資を10%増やすだけで、脅威検知と封じ込め能力が14%向上します。これは理論ではなく、Accentureの経済モデルが実際のセキュリティ成果をもとに示した数字です。1件の侵害で数百万ドルの損失が出る時代、このROIは非常に魅力的です。

ビジネス価値は損失回避にとどまりません。AIセキュリティが成熟した組織は、AI投資のリターンが1.6倍高くなります。なぜか?安全なシステムは信頼できるシステムだからです。常にセキュリティ問題に追われることなく、AIの価値創出に集中できるのです。

競争優位性もより顕著です。信頼が最重要となる医療・金融・小売分野では、強固なセキュリティが差別化要因となります。顧客はAIリスクを理解し、セキュリティを重視するベンダーを選ぶようになっています。セキュリティ体制は単にデータを守るだけでなく、市場での優位性を築く要素です。

AIセキュリティ・チェックリスト

AIシステム導入前に、以下の重要な質問を自問してください:

データセキュリティ評価: すべてのAIデータフローにエンドツーエンド暗号化を実装していますか?モデルの実際のデータ利用に即したAI特有のアクセス制御がありますか?データポイズニングなどAI特有の脅威を検知できる監視体制がありますか?敵対的攻撃への防御をテストしていますか?

コンプライアンス準備: 経営層レベルでAIコンプライアンスの明確な責任者がいますか?事業展開する各地域の規制要件をマッピングしていますか?ベンダー評価はAI固有のリスクに対応していますか?自動レポートでコンプライアンスを証明できますか?

プライバシー保護: AI設計にデータ最小化の原則を導入していますか?適切な場面でシンセティックデータなどプライバシー強化技術を活用していますか?サードパーティAIサービスは自社のプライバシー基準を満たしていますか?異なる地域要件にも対応できるプライバシー制御を構築していますか?

即時優先事項: 明日3つだけ実行するなら、まず全AIシステムとそのデータアクセスのインベントリを作成しましょう。把握できていないものは守れません。次に、最も機密性の高いAIデータフローに暗号化を導入しましょう。最後に、経営層レベルでAIセキュリティの明確な責任体制を確立しましょう。

タイムラインの目安: 包括的なAIセキュリティ構築には時間がかかりますが、短期間でも大きな進展が可能です。30日以内にAIインベントリと基本的なリスク評価を完了、90日以内にコアセキュリティ対策とガバナンスフレームワークを導入、180日以内に優先規制へのコンプライアンス達成と継続的な監視体制の構築を目指しましょう。

結論:今こそ行動の時

AIデータセキュリティの77%失敗率は単なる統計ではなく、まさに危機の前兆です。AI導入が業界全体で80%に迫る中、適切なセキュリティを実装する猶予は急速に失われています。スピードを優先し続ける組織は、顧客の信頼、規制コンプライアンス、競争優位性、そして最終的には存続そのものを危険にさらします。

「露出ゾーン」から「再発明準備ゾーン」への道のりは簡単ではありませんが、進むべき道は明確です。経営層のコミットメント、戦略的投資、AIセキュリティに対する根本的な意識改革が必要です。チェックボックス型のコンプライアンスを超え、脅威の進化に対応できる適応的かつレジリエントなシステムを構築しましょう。

朗報は、ROIが非常に魅力的であることです。再発明準備ゾーンの10%の組織は、単に安全性が高いだけでなく、より高い成果を上げています。AI投資のリターンが高く、顧客からの信頼も厚く、技術的負債も少ない。AI時代において、セキュリティはコストセンターではなく競争優位性そのものです。

問題は「包括的なAIセキュリティを導入できるか」ではなく、「導入しないで済むのか」です。攻撃者がすでにAIを悪用し、規制が各地で増え、顧客データがかつてないリスクにさらされている今、行動すべき時は「今」です。77%のギャップは自然に埋まりません。選択肢は2つ:露出したままか、AI時代に備えるか。

よくある質問

主なリスクは、攻撃者がトレーニングデータを改ざんするデータポイズニング攻撃、AIモデルやその出力への不正アクセス、学習済みモデルからの機密情報抽出、サードパーティAIサービスによるサプライチェーンの脆弱性などです。Morris IIワームは、これらの理論的リスクが実際の攻撃となりつつあることを示しています。

最小コストで最大の保護を得られる基本対策から始めましょう。クラウドネイティブなセキュリティツールは、内製よりも高いコストパフォーマンスを発揮することが多いです。まずは暗号化、アクセス制御、基本的な監視に注力しましょう。高価な技術を使わずとも、シンセティックデータでプライバシーリスクを低減できます。セキュリティ意識の高いAIベンダーと提携し、セキュリティ負担を分担するのも有効です。

医療、金融サービス、政府請負業者は最も厳しい要件に直面します。ただし、小売やテクノロジー企業がグローバルに展開する場合、地域ごとに異なる要件への対応が必要となり、最も複雑なコンプライアンス課題に直面することが多いです。EU市民データを処理する組織は、業界を問わずGDPRのAI規定を遵守しなければなりません。

従来のセキュリティは不正アクセスからデータを守ることに重点を置きます。AIセキュリティは、データの改ざん防止やモデルの完全性維持、モデルからのトレーニングデータ抽出防止も求められます。AIシステムには動的なアクセス制御、専門的な監視、新しいタイプのセキュリティテストが必要で、従来型では対応できません。

EUはGDPRやAI法を通じて個人の権利や説明責任を重視します。米国は業界別規制と州レベルの包括的な法律が台頭しています。アジア太平洋諸国はデータ主権やローカライゼーションを優先する傾向があります。組織は、こうした多様なアプローチに適応できる柔軟なフレームワークを構築する必要があります。

追加リソース

まずは試してみませんか?

Kiteworksを使用すれば、規制コンプライアンスの確保とリスク管理を簡単に始めることができます。人、機械、システム間でのプライベートデータの交換に自信を持つ数千の組織に参加しましょう。今すぐ始めましょう。

Table of Content
Share
Tweet
Share
Explore Kiteworks