AIポリシーの有無を問う時代は終わり。今、規制当局が求めるのは「機能している証拠」です。

国際AIセーフティレポート2026は、政策立案を支援するための科学的評価として位置づけられています。本レポートは、汎用AIが現時点で何を実現できるのか、どのような新たなリスクをもたらすのか、そしてどのようなリスク管理手法が存在するのかを検証しています。これは規制でも指令でもありません。むしろ、より重要な意味を持つ可能性があり、複数の法域で規制当局が今後どのような要件を求めるかを決定する際のエビデンスベースとなるものです。

ビジネス犯罪の観点から読むと—Hogan Lovellsが最近の分析で行ったように—本レポートは、すべての組織が直面すべき3つの実務的な課題を指摘しています。企業を欺くことがかつてないほど容易になりました。何が本物かを確認することがかつてないほど困難になりました。そして、被害が発生した際に誰が責任を問われるのかが不明確です。

この組み合わせ—詐欺の障壁の低下、コミュニケーションに対する信頼の低下、責任の不確実性—は、組織がAIガバナンスを単なるポリシー策定として扱う余裕のない規制・コンプライアンス環境を生み出しています。規制当局は、ガバナンスフレームワークの有無を問う段階を超え、実際にそのフレームワークが運用されているか、コントロールが検証されているか、AIシステムが処理すべきでないデータを処理したり、許可されていない意思決定をしていないことを証明できるかどうかを問うようになっています。

本レポートによる現行リスク管理の評価は明確です。現行の対策では被害を確実に防ぐことができず、実環境での有効性を示す証拠も限定的です。高リスク分野でAIを導入する組織にとって、メッセージは明白です。ポリシーと証拠の間にあるガバナンスギャップこそが、規制リスクの温床となっています。

5つの重要なポイント

  1. AIは歴史上かつてないほど詐欺を安価・迅速・追跡困難にした。 国際AIセーフティレポート2026は、汎用AIが詐欺やなりすまし、サイバー侵害をこれまでになく安価かつ迅速、かつ追跡困難にしていると結論づけています。現行のセーフガードでは被害を確実に防げません。レポートで引用された調査によると、リスナーの80%がAI生成音声を本物の話者と誤認しています。クローン音声は既に、信頼ベースの承認プロセスを悪用して被害者に送金を促す手口に使われています。ビジネス詐欺の参入障壁は事実上崩壊しました。
  2. 合成コンテンツが、組織が依存する信頼ベースのコントロールを崩壊させている。 音声・ビデオ・メールは、もはや高リスクな行動の信頼手段とはなりません。信頼できる「経営者」からの送金依頼、サプライヤーの銀行口座変更、承認手順の上書き、認証情報のリセット、機密情報の共有依頼など、ほとんど技術的スキルなしで合成できます。レポートでは、ウォーターマークやラベルなどの技術的対策は一定の効果があるものの、熟練した攻撃者はそれらを除去でき、ディープフェイクの発信元特定も困難であると指摘しています。多くの組織が頼りにしてきた—電話の声、ビデオ会議の顔、メールの名前—といった信頼モデルは、大規模に悪用可能となっています。
  3. 規制当局は文書化されたガバナンスフレームワークを求めている—単なるAIポリシーでは不十分。 レポートの半分以上がリスク管理実務に割かれており、規制当局が今後、AIリスクの管理について文書化されたガバナンスフレームワークやリスクアセスメント、データの完全性や不正利用に明確に対応したコントロールを組織に求めるようになることを示唆しています。EU AI法、G7広島プロセス、開発者向けセーフティフレームワークなど、ガバナンス施策は増加していますが、レポート自身の評価は慎重で、ほとんどのリスク管理策の実効性を示す証拠は依然として限定的です。ガバナンス文書の存在と、その運用実態を証明することの間にあるギャップこそが、規制リスクの温床です。
  4. AIは外部だけでなく内部からもビジネス犯罪リスクを生み出す。 ビジネス犯罪リスクは外部攻撃者だけに限りません。従業員や代理人、その他の関係者がAIを使って信憑性の高い偽造文書を作成したり、承認依頼を捏造したり、監査証跡を不明瞭にすることが可能です。英国では、これが「詐欺防止義務違反」と直接関連し、2025年9月から大企業に適用されています。AIを活用した偽の承認依頼や文書捏造、大量の合成コミュニケーションなどは、今や詐欺リスク評価や研修、予防手続きで明確に対処すべきです。
  5. 多層防御(Defense in Depth)は必須—これがレポートの中核的な推奨事項。 レポートは、AIを活用した脅威に対して単一のセーフガードでは十分でないことを強調しています。多層防御、すなわち複数の独立したセーフガードを重ねることで、一つが破られても他が被害を防ぐことを推奨しています。組織にとっては、二重承認、既知の番号へのコールバック、初回・変更時の受取人への追加確認、ハイリスク行動のためのバンド外認証、AIインシデント対応訓練(真正性の争点、迅速な停止判断、証拠保全の訓練)などが該当します。予防ではなく、レジリエンス(回復力)が運用モデルとなります。

合成コンテンツが詐欺コントロールの信頼モデルを崩壊させた

レポートは、AI生成コンテンツ—特に音声や映像によるなりすまし—による有害なインシデントを強調しています。リスナーの80%がAI生成音声を本物と誤認するという調査も引用されており、クローン音声が信頼ベースの承認プロセスを悪用し、被害者に送金を促す事例が報告されています。

ビジネスにとって、その影響は即時かつ具体的です。CFOからの緊急送金指示の電話、サプライヤーからの銀行口座変更確認のビデオ会議、取締役からの機密文書依頼メール—これらすべてが合成コンテンツで悪用されてきました。いずれも、依頼者の見かけ上の本人性への信頼に依存していました。

レポートは技術的対策の限界も指摘しています。ウォーターマークやラベルは一定の効果があるものの、熟練した攻撃者はそれを除去できます。ディープフェイクの発信元特定も困難です。検知ツールも存在しますが、主たる防御策とするには信頼性が十分ではありません。実務的な意味合いとしては、組織は合成コンテンツの到着後に検知することに頼るべきではなく、コミュニケーションが本物でない可能性を前提とし、高リスク行動の実行前に独立した検証を必須とするコントロールが必要です。

これは、音声・ビデオ・メールを支払い、サプライヤー変更、認証情報リセット、緊急承認などのための信頼できないチャネルとして扱うことを意味します。別の事前に確立されたチャネルによるバンド外検証を必須とし、攻撃者がスピードに依存して悪用するプロセスに「摩擦」を設ける必要があります。多くの組織の詐欺コントロールが依拠してきた「認識できる声や顔が十分な権限である」という信頼モデルは、もはや成立しません。

組織のセキュリティを信じていますか。その証明はできますか

Read Now

サイバーオペレーションは自律化せずともコモディティ化が進行中

レポートは、サイバー攻撃におけるAI利用にも多くの紙幅を割いており、開発者が自らのシステムのサイバーオペレーションでの悪用を報告するケースが増えていることや、攻撃者のスキル要件を下げる使いやすいツールが違法マーケットで販売されていることを指摘しています。

レポートは過剰な主張を避けています。完全自律型のエンドツーエンドサイバー攻撃は確認されていません。AIによる現実のインシデント増加を直接検証するのも困難です。しかし、実務的な観点では理論よりも重要な点があります。複合型攻撃が容易になっているのです。初期アクセスや認証取得に合成コンテンツを使い、AI支援による侵害や持続化を組み合わせる。攻撃者に完全な自律性は不要で、各段階をより迅速・安価にするだけの自動化で十分です。

レポートは一定の楽観的見解も示しています。今後の能力向上が攻撃者と防御者のどちらに有利に働くかは未確定ですが、その優位性はAIをセキュリティや詐欺検知に効果的に活用する組織にのみ現れます。AIを活用した防御に投資する組織は、従来型ツールでAI攻撃に立ち向かう組織よりも有利な立場となります。対応を先延ばしにする組織は、非対称性がさらに自社に不利に拡大することに気付くでしょう。

コンプライアンス部門にとって、サイバーオペレーションに関する議論は明確なポイントを補強します。AIシステムが大量の組織データを処理することで、新たなコンプライアンス課題が生じるということです。AIツールがセキュリティ運用—ネットワークトラフィックの監視、ログ分析、異常検知—に使われる場合、個人識別情報や保護対象保健情報、規制対象の金融データなども処理対象となり得ます。AIのガバナンスフレームワークは、意思決定のアウトプットだけでなく、こうしたデータフローも考慮しなければなりません。

組織内部から生じるビジネス犯罪リスク

企業向けとして最も過小評価されているレポートの発見は、AIが外部だけでなく内部からもビジネス犯罪リスクを生み出すという点です。従業員や代理人、その他の関係者が汎用AIを使って信憑性の高い偽造文書や承認依頼、合成コミュニケーションを作成し、監査証跡を隠蔽することが可能です。

英国では、これが「詐欺防止義務違反」と直接関連し、2025年9月1日から大企業に適用されています。この違反は、関係者が組織や顧客の利益のために特定の詐欺行為を行い、組織側に合理的な予防手続きがなかった場合に責任が問われます。AIを活用した偽の承認依頼や文書捏造、大量の合成コミュニケーションなどは、今やすべての詐欺リスク評価、研修、予防手続きで明確に対処すべきです。

レポートが論じる「自動化バイアス」も別の観点を加えています。チームがAI支援のアウトプットに過度に依存し誤った判断を下すと、組織は証拠や説明責任が困難な意思決定や説明を行うリスクがあります。これには規制当局への開示、契約上の表明、取引先とのやり取りも含まれます。AI支援による意思決定の監査証跡が、根拠やデータ入力、人間の判断がどの程度実際に適用されたかを記録していない場合、後から「どのように決定されたのか」を問われても説明できません。

組織には、AIシステムが「何をしたか」だけでなく、「どのデータにアクセスし、どんなアウトプットを出し、それに基づき人間がどんな行動を取ったか」まで記録する監査インフラが必要です。このレベルの記録がなければ、人間がAIを活用して意思決定したのか、AIの判断をそのまま追認しただけなのかの区別は証明できません。

AIガバナンスにはデータガバナンスと監査証跡が不可欠

レポートのリスク管理分析は、AIを導入する組織が避けて通れない結論に至ります。AIガバナンスフレームワークの信頼性は、その背後にあるデータガバナンス基盤の堅牢さにかかっています。

規制当局から「AIが処理すべきでないデータを扱っていないことをどう証明するのか」と問われた際、単なるポリシー文書では不十分です。AIがいつ、どのデータに、どの権限でアクセスし、どんな行動が取られたかを示す監査証跡が必要です。AIシステムがデータ保護義務を遵守しているか問われた際も、ポリシーの存在だけでなく、その運用証拠が求められます。

この要件は複数の規制フレームワークと同時に交差します。GDPRの下では、個人データを処理するAIシステムは自動化意思決定に関する第22条、プロセッサー義務の第28条、処理活動記録の第30条、越境移転に関する第44条から50条などに準拠しなければなりません。HIPAAの下では、保護対象保健情報にアクセスするAIシステムは情報システム活動レビューの要件を満たす必要があります。マネーロンダリング防止や制裁規制の下では、金融犯罪検知に使われるAIシステムが承認されたパラメータ内で運用されていることを証明しなければなりません。

これらの要件を満たす運用基盤には、AIによるすべてのエンタープライズデータへのアクセスを記録する包括的な監査証跡(タイムスタンプ、ユーザーID、データ分類、実施されたアクション)が含まれます。また、データ分類システムがアクセス制御を自動的に強制し、AIエージェントが許可されていないデータカテゴリにアクセスできないようにします。AIシステムが異常なデータアクセスパターンを示した場合の異常検知や、インシデントが適切な担当者にエスカレーションされる自動アラートも含まれます。

この基盤がなければ、AIガバナンスフレームワークは理想論にとどまります。基盤があれば、組織はコントロールが運用されていること、データフローが記録されていること、ガバナンスが実態として機能していることを規制当局に証明できます。KiteworksのAIデータゲートウェイとプライベートデータネットワークはまさにこのレイヤーを提供し、AIシステムがアクセスできるデータを統制し、すべてのやり取りを記録し、ポリシー文書だけでは不十分な規制対応証拠を生成します。

多層防御:AIリスクに対するレポートの運用モデル

レポートの中核的な推奨事項は多層防御(Defense in Depth)です。複数のセーフガードを重ねることで、一つが破られても他が被害を防ぐという考え方です。これはセキュリティアーキテクチャでは新しい概念ではありませんが、レポートはこれをAIリスクに特化して適用し、組織のコントロール設計に直接的な示唆を与えています。

詐欺防止においては、多層防御は複数段階での独立した検証を意味します。高額取引の二重承認、疑わしいコミュニケーションで提供された番号ではなく、事前登録済み番号へのコールバック、初回や変更時の受取人に対する追加検証、緊急性を悪用されないための時間的遅延などです。各レイヤーは独立して機能するため、一つが突破されても全体が破られることはありません。

データガバナンスにおいては、多層防御はデータ層・アプリケーション層・ネットワーク層でのコントロールを意味します。AIシステムがアクセスできるデータを制限するデータ分類、継続的な検証を伴う最小権限原則のアクセス制御、すべてのやり取りを記録する監査証跡、定められたパターンからの逸脱を検知する異常検知、そして文書化だけでなく実際に訓練されたインシデント対応手順が含まれます。

レポートはまた、システムがショックや被害に耐え、吸収し、回復し、適応する「社会的レジリエンス」の構築も強調しています。組織にとっては、インシデント対応の即応体制がこれに該当します。合成コンテンツによる詐欺が発生した際、誰が対応を主導するのか、どの権限でシステムを一時停止・停止できるのか、外部へのコミュニケーションは誰が担当するのか、規制・法的手続きのための証拠はどのように保全するのか—これらはインシデント発生時ではなく、事前に決めておく必要があります。

今、組織が取るべきアクション

国際AIセーフティレポート2026は政策立案者向けですが、企業への示唆は即時的です。AIを導入・活用する組織に本レポートが求めるアクションは次の通りです。

高リスク行動において、音声・ビデオ・メールを信頼できないものとして扱う。 支払い、サプライヤー変更、認証情報リセット、緊急承認には、事前に確立された別チャネルによるバンド外検証が必須です。声や顔の認識に依存する信頼モデルは崩壊しています。コミュニケーションが合成である可能性を前提とした検証手順を構築してください。

独立した多層セーフガードによる多層防御を構築する。 二重承認、既知の番号へのコールバック、初回・変更時の受取人への摩擦、ハイバリュー取引の時間的遅延など、各レイヤーが独立して機能し、一つが突破されても他が守られる構造を作ること。データガバナンスにもこのアプローチを拡張し、分類ベースのアクセス制御、継続的な検証、包括的な監査証跡、異常検知を実装してください。

AIを活用した手口をカバーするよう、詐欺リスク評価と予防手続きを更新する。 合成メディア、文書捏造、AIツールの内部不正利用、自動化バイアスを明確に対策に盛り込むこと。英国組織にとっては、これは詐欺防止義務違反の下で法的要件です。主要なサードパーティやベンダーにも評価を拡大してください。

運用レベルの監査インフラで裏付けられたAIガバナンスフレームワークを構築する。 ポリシー文書だけでは新たな規制期待を満たせません。AIシステムがいつ・どのデータに・どの権限でアクセスし、どんなアクションを取ったかを記録する包括的な監査証跡が必要です。データ分類はアクセス制御を自動的に強制し、異常検知は不正パターンを検知し、コンプライアンスレポートはエクスポート可能かつ規制対応可能でなければなりません。

AIインシデント対応シナリオを事前に訓練する。 真偽不明なコミュニケーションへの対応、AIシステムの迅速な停止判断(誰がどの条件で権限を持つか)、インシデントの証拠保全(規制・法的手続きのための記録方法)などを事前にリハーサルしてください。これらの問いへの答えは、インシデント発生前に用意しておく必要があります。

AIベンダー契約における説明責任の圧力テストを実施する。 レポートは、被害の責任所在が設計選択に特定できず、複数の関係者に分散することで責任の不確実性が生じる点を指摘しています。AIベンダーからの救済が遅延・不可能な場合も想定してください。契約にはデータ処理義務、違反通知要件、監査権、契約解除トリガーを明記すべきです。ガバナンスフレームワークには、内部システム同様の厳格さでサードパーティAIの監督を含めてください。

詐欺の障壁は崩壊した。コンプライアンスの障壁は崩壊していない。

国際AIセーフティレポート2026は、明快かつ不都合なメッセージを発信しています。汎用AIの登場により、詐欺や欺瞞の参入障壁はかつてないほど低くなりました。合成コンテンツは、組織が何十年も頼りにしてきた信頼ベースのコントロールを崩壊させています。サイバーオペレーションはコモディティ化し、内部不正の検知も困難になっています。そして、現行のセーフガードでは被害を確実に防げません。

一方で、規制当局の期待は高まっています。ガバナンスフレームワークは文書化されなければならず、リスク評価はAI特有の脅威をカバーし、コントロールは検証・証明される必要があります。AIリスクとデータ保護、金融犯罪、企業責任の各制度が交差することで、AIガバナンスは単独の取り組みではなく、組織が既に運用しているすべてのフレームワークに関わるコンプライアンス義務となっています。

本レポートをシグナルと捉え、運用レベルのガバナンス基盤を構築し、多層防御を導入し、コントロールの有効性を証明する監査証跡を作り、インシデント対応を事前に訓練する組織は、規制当局からの問いに対して適切なデューデリジェンスを示すことができるでしょう。

一方で、単なるポリシー作成の延長と捉える組織は、ガバナンス文書と運用実態のギャップこそが、規制執行の標的となることを知ることになるでしょう。

Kiteworksがどのように支援できるか、カスタムデモを今すぐご予約ください

よくある質問

AIによる音声クローンは、ごく短い音声サンプル—多くは決算説明会やカンファレンス録音、LinkedIn動画などの公開情報から取得—だけで、十分に本物らしい合成音声を生成できます。国際AIセーフティレポート2026で引用された調査では、リスナーの80%がAI生成音声を本物と誤認しています。攻撃者はこれを使い、経営者やサプライヤー、取締役になりすまして、緊急送金やサプライヤーの銀行口座変更、認証情報リセットを依頼する電話やビデオ会議を仕掛けます。この攻撃は、ターゲットが「声を認識した」と信じる信頼モデルと、「スピードが検証を阻む」緊急性モデルの両方を悪用します。効果的な防御策は、合成コンテンツの検知を試みるのではなく、未検証のコミュニケーションはすべて合成の可能性があると前提にすることです。高リスク行動には、事前に確立された別チャネルでのバンド外検証、独立した承認を要する二重承認、摩擦コントロール—時間的遅延、既知番号へのコールバック、追加認証—で攻撃の緊急性を断ち切る必要があります。

2025年9月1日から大企業に適用されている詐欺防止義務違反は、従業員・代理人・契約者・子会社などの関係者が、組織や顧客の利益のために特定の詐欺行為を行い、組織側に合理的な予防手続きがなかった場合に責任が問われます。AI時代の「合理的な予防手続き」には、AIを活用した手法—経営者になりすました合成メディアによるコミュニケーション、AI生成の偽造文書による不正取引、大量自動化コミュニケーションによる承認プロセスの混乱、AIツールの内部不正利用による監査証跡の隠蔽—への明確な対応が求められます。これらのリスクをカバーしない詐欺リスク評価や、研修プログラムは「合理的」基準を満たしません。また、関係者責任は直接雇用者以外にも及ぶため、組織の代理で行動するサードパーティにも評価を拡大する必要があります。

自動化バイアスとは、AIが生成したアウトプットを十分な批判的検討なしに受け入れてしまう傾向—AIの推奨を複数の判断材料の一つではなく正解として扱う傾向—のことです。規制環境では、これが特有の説明責任ギャップを生み出します。すなわち、意思決定が規制当局や取引先から問われた際、その判断が本当に人間の判断を反映していたのか、AIの追認だったのかを組織が証明する必要があります。AIのアウトプットと最終決定だけを記録し、AIがアクセスしたデータや人間のレビュー手順、適用された根拠を記録しない監査証跡では、この証明はできません。GDPR第22条では、法的または重大な影響を及ぼす自動処理による意思決定には人間による監督が必須で、その実施を文書化する必要があります。HIPAAや金融犯罪規制でも、情報システム活動レビューには運用コントロールの証拠が求められます。組織には、AIがアクセスしたデータ、出力、レビュー、アクションまで意思決定チェーン全体を記録する監査インフラが必要です。

個人データを処理するAIシステムには、少なくとも4つのGDPR義務が直接的な監査証跡要件を生み出します。第22条は、個人に重大な影響を及ぼす自動処理による意思決定に人間の監督を求め、その実施が文書化されている必要があります。第28条は、AIベンダーとのプロセッサー契約でデータ処理目的・セキュリティ要件・サブプロセッサー管理を明記し、監査証跡でこれらの境界が実際に守られていることを確認する必要があります。第30条は、AIシステムがどの個人データに、何の目的で、どのくらいの期間アクセスするかを記録する処理活動記録を求めます。第44条から50条は越境移転を規定し、AIシステムが処理する個人データが十分な保護のない法域に流出しない証拠が必要です。高リスクなAI処理にはデータ保護影響評価も必須です。これらを満たすには、各AIシステムがいつ・どの個人データに・どの権限でアクセスし、どこに流れたかまで記録する監査インフラが必要です。

国際AIセーフティレポート2026は、AI被害の責任所在が設計選択に特定できず、開発者・導入者・利用者に分散する構造的な説明責任問題を指摘しています。これにより、ベンダーからの救済措置が確実・迅速・十分に得られると想定する組織は契約上のリスクを抱えます。レポートが必須とする契約事項は4点です。第一にデータ処理義務—AIがアクセスできるデータの範囲、目的、セキュリティ管理、下流モデルのトレーニング利用可否。第二に違反通知—AIシステムが許可外データを処理した場合や法的リスクを生むアウトプットを出した場合の具体的な通知期限・エスカレーション経路。第三に監査権—AIがアクセスしたデータや実施アクションのログを組織がレビューできる権利(これがなければGDPRやHIPAA、金融犯罪規制の遵守を証明できません)。第四に契約解除トリガー—規制違反やセキュリティインシデント、モデル挙動逸脱など、無違約で契約終了できる条件の明記。従来のサードパーティリスク管理フレームワークと同等の厳格さでAIシステムにも適用する必要があります。

追加リソース

  • ブログ記事 ゼロトラストアーキテクチャ:信頼せず、常に検証
  • 動画 Microsoft GCC High:防衛請負業者がよりスマートな優位性を求める理由
  • ブログ記事 DSPMで機密データが検知された後のセキュリティ対策
  • ブログ記事 ゼロトラストアプローチで生成AIへの信頼を構築する方法
  • 動画 ITリーダーのための機密データ安全保管の決定版ガイド

まずは試してみませんか?

Kiteworksを使用すれば、規制コンプライアンスの確保とリスク管理を簡単に始めることができます。人、機械、システム間でのプライベートデータの交換に自信を持つ数千の組織に参加しましょう。今すぐ始めましょう。

Table of Content
Share
Tweet
Share
Explore Kiteworks