金融サービス企業向けAIコンプライアンス要件:知っておくべきポイント

金融サービス企業は、AIの導入に最も積極的な業界の一つであり、同時にコンプライアンス面で最もリスクにさらされています。彼らが事業を展開する規制環境は、人間による意思決定を前提に構築されています。たとえば、融資担当者による申請審査、トレーダーによる注文執行、アドバイザーによる顧客ポートフォリオ管理などです。AIシステムがこれらの役割を担う場合でも、それを規制するフレームワークから外れることはありません。

SR 11-7モデルリスクガイダンス、GLBA、PCI DSS、NYDFSパート500、DORA、GDPRはすべて同時に適用されますが、それぞれ証拠基準や執行メカニズムが異なります。金融サービスにおけるAIガバナンスを正しく実施するには、これらすべてを満たす必要があります。

エグゼクティブサマリー

主旨:金融サービスにおけるAIコンプライアンスは単一のフレームワークの問題ではなく、SR 11-7モデルリスク、GLBA、NYDFS、PCI DSS、DORA、GDPRを一貫したデータレイヤーのガバナンス基盤で満たす必要がある、多機関・多法域の課題です。

重要性:金融サービスの規制当局(OCC、連邦準備制度理事会、FDIC、SEC、FINRA、NYDFS、EUの対応機関)は、AIガバナンスの監査を積極的に進めています。AIのアクセス制御、モデル監督、監査証跡の運用レベルの証拠を提出できない企業は、指摘や是正命令を受けることになります。監査後に対応的にコンプライアンスを整備するコストは、事前にガバナンスを構築する場合よりも一貫して高くなります。

主なポイント

  1. SR 11-7モデルリスク管理は、金融判断に影響を与えるAIモデルに適用—検証、継続的なモニタリング、人による介入の文書化は必須要件であり、推奨事項ではありません。
  2. GLBAは金融機関に顧客NPIの不正アクセス防止を要求—AIエージェントがその情報にアクセスする場合も、人間の従業員と同じ保護要件を満たす必要があります。
  3. NYDFSパート500(2023年改正)は、対象となる金融機関にAIシステムをサイバーセキュリティプログラムに含めることを明示的に要求—AIガバナンスに関する米国金融サービス規制の中で最も運用面で具体的です。
  4. PCI DSSはAIエージェントによるカード会員データへのアクセスを制限—人間ユーザーと同様の「知る必要性」や固有識別要件が適用されます。
  5. EU市場にサービスを提供する機関では、DORAのICTリスク要件とGDPRの自動意思決定義務が並行してコンプライアンス要件を課し、米国要件と同時に満たす必要があります。

金融サービスにおけるAIコンプライアンスの全体像

SR 11-7:モデルリスク管理。連邦準備制度理事会とOCCのSR 11-7ガイダンスは、米国の銀行・金融サービスにおけるAIガバナンスの基盤となるフレームワークです。AIや機械学習モデルを含むすべてのモデルは、厳格な開発、検証、継続的なモニタリングを受ける必要があります。AIに特化したSR 11-7の要件は、モデルの目的や前提の文書化、モデル性能と限界の独立検証、ドリフト・バイアス・予期せぬ挙動の継続的モニタリング、人による介入の文書化と明確なエスカレーションプロセス、モデル廃止基準の定義です。信用判断、不正検出、トレーディング、顧客リスクスコアリングに影響を与えるAIモデルはすべて対象となります。FINRAやCFTCも、証券会社やデリバティブ市場参加者向けに同様のガイダンスを出しています。

GLBAセーフガード規則。GLBAは、金融機関に非公開個人情報(NPI)のセキュリティと機密性の保護を義務付けています。2023年のセーフガード規則改正では、暗号化、アクセス制御、多要素認証(MFA)、監査ログの保持など、NPIを扱うすべてのシステム—顧客口座データや取引履歴、信用情報にアクセスするAIエージェントを含む—に適用される具体的な要件が追加されました。GLBAが示唆する「必要最小限」基準は、AIエージェントに対しても運用レベルで徹底されなければなりません。

NYDFSパート500。2023年改正は、AIリスクに直接対応する米国金融サービス規制の中で最も運用面で具体的です。NYDFSパート500は、対象事業体にAIシステムをサイバーセキュリティプログラムに含めること、AIがアクセス可能なデータのアクセス制御を維持すること、監査時に証拠を提出することを求めています。年次認証要件により、AIガバナンスは技術的課題だけでなく、取締役会レベルの責任事項となります。

PCI DSS。PCI DSSは、カード会員データを保存・処理・伝送するすべてのシステムを対象とします。AIシステムの場合、カード会員データ環境内のすべてのAIエージェントに固有の識別子を付与、必要最小限のアクセス、継続的なログ取得、転送時・保存時の強力な暗号化が求められます。決済処理、不正検出、カスタマーサービスワークフローでカード会員データに触れるAIツールは、例外なくPCI DSSの対象です。

DORA。EU規制下の金融機関では、DORAコンプライアンスによりAIシステムを明示的に含むICTリスク管理が求められます。リスク分類、アクセス制御、監査ログ、レジリエンステスト、DORAのベンダーリスクフレームワークに基づく第三者AIプロバイダーの評価が必要です。

GDPR。EU顧客にサービスを提供する金融サービス企業は、GDPR第22条の自動意思決定義務を満たす必要があります(信用スコアリング、不正検出、顧客リスク評価など)。これには、適法な根拠、透明性、人によるレビューの権利が含まれ、DORAや各国のプルーデンシャル要件の上に重ねて適用されます。

表1:金融サービス企業向けAIコンプライアンス要件
フレームワーク AIトリガー 主な要件 審査機関
SR 11-7 金融判断に影響を与えるAIモデル 検証、継続的モニタリング、人による介入の文書化、明確なエスカレーションプロセス 連邦準備制度理事会、OCC、FDIC(安全性・健全性審査時)
GLBAセーフガード規則 非公開個人情報を扱う・処理するAI アクセス制御、暗号化、MFA、AI-NPIインタラクションの監査ログ保持 FTC、プルーデンシャル規制当局(情報セキュリティプログラム審査時)
NYDFSパート500 対象事業体のサイバーセキュリティプログラム内のAIシステム AIを資産インベントリに含める、アクセス権限制御、監査証跡の証拠 NYDFS(サイバーセキュリティ審査時)、年次認証要件
PCI DSS カード会員データ環境にアクセスするAI AIエージェントの固有識別、最小権限アクセス、継続的ログ、強力な暗号化 QSA(PCI審査時)、加盟銀行、カードブランド
DORA EU規制金融機関のICT環境内のAIシステム ICTリスク分類、アクセス制御、監査ログ、第三者AIプロバイダー評価 EU加盟国の主管当局
GDPR第22条 EUデータ主体に法的または重大な影響を及ぼす自動意思決定 適法根拠、透明性、信用・不正・リスクスコアAIの人によるレビュー権 EU監督当局、加盟国のDPA

金融サービスにおいてAIが最も重大なコンプライアンスギャップを生む領域

モデルガバナンス基盤のないモデルリスク。金融サービス分野で最も蔓延しているギャップは、SR 11-7の開発・検証要件は満たしているものの、継続的なモニタリングや人による介入基盤が欠如したままAIモデルを運用している点です。SR 11-7は明確に「検証は一度きりのゲートではなく、継続的なプロセス」であるとしています。運用中のAIモデルは、性能のドリフトやバイアス、予期せぬ出力についてモニタリングされ、その結果は有資格者がレビューし、介入プロセス(誰が、どのように、いつ介入できるか)は文書化・テストされなければなりません。多くの金融サービス企業はモデル開発の体制は強固ですが、モデルモニタリング体制は弱く、AI導入の加速によりこのギャップが拡大しています。

運用レベルの制御がないAIエージェントによる顧客金融データアクセス。GLBAセーフガード規則とNYDFSパート500は、誰(およびどのAI)が非公開個人情報にアクセスできるかを制限するアクセス制御を求めています。具体的な失敗例としては、AIエージェントが顧客データリポジトリに広範にアクセスできる一方で、各エージェントの機能ごとに必要なデータだけに限定する運用レベルのABAC(属性ベースアクセス制御)が適用されていないことが挙げられます。例えば、顧客ポートフォリオレポートを生成するAIモデルが、現在のタスクに関係ないすべての顧客記録にアクセスできる場合、GLBAの必要最小限基準とNYDFSのアクセス権限要件の両方に違反しています。

AIによる金融判断の監査証跡ギャップ。金融サービス分野の規制当局は、AIガバナンス審査時に一貫して「AIが何に、いつ、どの権限でアクセスし、どの意思決定に影響を与えたか」という証拠提出を求めます。多くの金融サービス企業は、AIによるインタラクションについて運用レベルの証拠を提出できません。セッション単位の活動は記録していても、個々のデータ操作まで記録していない監査ログでは、SR 11-7のモデルモニタリング要件、NYDFSパート500の監査証跡義務、GLBAのログ基準を満たせません。改ざん検知可能な運用レベルの監査基盤が三つのフレームワークで共通して求められ、しかもSIEMに継続的にフィードされる必要があります(事後的にのみ利用可能では不十分です)。

第三者AIのガバナンス不備。金融サービス企業は、トレーディングプラットフォーム、資産運用ツール、コンプライアンス監視システム、カスタマーサービスアプリケーションなど、第三者AIを多用しています。DORAの第三者リスク管理要件、SR 11-7のベンダーモデルリスクガイダンス、GLBAセーフガード規則は、第三者AIの選定・監督・ガバナンスに義務を課しています。具体的なギャップは、サイバーセキュリティ体制のベンダー調査は行っているが、AI固有のガバナンス(ベンダーAIが監査可能なアウトプットを生成しているか、データレイヤーで暗号化要件を満たしているか、アクセスログを提供しているか)の調査が不十分な点です。

どのデータコンプライアンス基準が重要か?

Read Now

金融サービス向けの新たなAI特化ガイダンスの動向

SECによるAI開示・ガバナンス。SECは金融サービス企業を含む上場企業に対し、重要なAIリスクとそのガバナンスプロセスの開示を義務付けています。資産運用会社や証券会社に対しては、SECとFINRAが投資推奨、顧客コミュニケーション、トレーディングシステムにおけるAIガバナンスの審査を強化する方針を示しています。ガバナンス基盤がコントロールの文書化・監査可能な証拠を生み出していることが審査基準となります。

OCC・連邦準備制度理事会によるAIガイダンス。米国銀行規制当局は、説明可能性、公平性、ガバナンス文書化を審査の期待事項として強調する責任あるAI利用に関する声明を発表しています。OCCの公正融資手続きでは、AIによる信用判断システムを明示的に対象とし、差別的影響の検証証拠や、名目上ではなく実質的な人による監督メカニズムを要求しています。

FINMAサーキュラー2023/1。FINMAの運用リスクガイダンスは、スイス金融機関におけるアルゴリズムやAIによる意思決定システムを明示的に対象とし、ガバナンス文書化、継続的モニタリング、経営陣の責任を求めています。国際企業でスイス事業を持つ場合、FINMA要件が追加のコンプライアンスレイヤーとなります。

EU AI法—高リスク金融AI。EU AI法は、信用スコアリング、保険リスク評価、特定の投資アドバイザリー機能で用いられるAIを高リスクと分類し、適合性評価、人による監督、技術文書化要件を課します。EU市場で事業を展開する企業にとって、これはDORAやGDPRに加え、高リスク金融AI導入に第三のフレームワークが追加されることを意味します。

金融サービスにおけるコンプライアンス対応AIプログラムの構築

根本的なガバナンス要件は、SR 11-7、GLBA、NYDFS、PCI DSS、DORAのすべてで同じ技術的コントロールに収束します。単一のデータレイヤーガバナンスアーキテクチャ(認証済みアクセス、運用レベルのアクセス方針、検証済み暗号化、改ざん検知可能な監査証跡)が、すべての証拠基準を満たします。

AIをモデルリスク管理プログラムに初期段階から組み込む。SR 11-7はAIモデルにも統計モデルと同様に適用されます。金融判断に影響を与えるすべてのAIモデルには、モデルインベントリ登録、検証記録、しきい値を定めた継続的モニタリング計画、人による介入プロセスの文書化が必要です。これらが欠如したAI導入は、モデルの高度さに関わらずSR 11-7非準拠となります。

AIエージェントに対して運用レベルのアクセス制御を徹底。GLBA、NYDFSパート500、PCI DSSはいずれも、AIのアクセス権限を各機能に必要な最小限に制限するアクセス制御を要求します。運用レベルでのABAC方針適用(エージェントの認証済みID、データの分類、リクエストコンテキストに基づき評価)は、これらの要件を同時に満たします。フォルダレベルの権限設定だけでは不十分です。

AIが処理する金融データにはFIPS認証済み暗号化を実装。GLBA、NYDFS、PCI DSSはいずれも、金融データの転送時・保存時に強力な暗号化を要求します。FIPS 140-3レベル1認証済み暗号化は、三つのフレームワークすべての審査要件を満たします。NPIやカード会員データを処理するAIツールがこのレベルを提供しているか確認してください。標準TLSだけでは不十分です。

SIEMにフィードする運用レベルの監査証跡を生成。SR 11-7のモデルモニタリング、NYDFSの監査証跡要件、GLBAのログ基準、DORAのICTモニタリングはいずれも、「AIが何に、いつ、どの権限でアクセスし、何を出力したか」という証拠を要求します。認証済みエージェントに帰属した運用レベルの監査ログをSIEMに継続的にフィードすることで、四つのフレームワークすべてを単一投資で満たせます。

第三者AIをベンダーガバナンスプログラムで評価。利用するすべての第三者AIプラットフォームは、AI固有のガバナンス観点で評価する必要があります(一般的なサイバーセキュリティ体制だけでなく)。FIPS暗号化、運用レベルの監査ログ、ベンダー自身のモデルリスク管理体制を確認してください。ベンダーのセキュリティのみを評価し、AIガバナンスを評価しないGRCプログラムは、金融サービス規制上不十分です。

Kiteworks Compliant AI:金融サービス規制環境に最適化

金融サービス企業には、規制当局が審査時に求める具体的な証拠を生み出すAIガバナンスが必要であり、基準を満たしているか曖昧な汎用コンプライアンスツールでは不十分です。Kiteworksのコンプライアンス対応AIは、プライベートデータネットワークのデータレイヤーで、AIエージェントが顧客金融データにアクセスする前に、その証拠を生成します。

すべてのAIエージェントは、人間の承認者に紐づくIDで認証され、SR 11-7の説明責任要件やNYDFSパート500のアクセス権限制御を満たします。

ABAC方針により、運用レベルで必要最小限のアクセスを強制し、GLBAセーフガード規則、NYDFS、PCI DSSのアクセス制御要件を同時に満たします。

FIPS 140-3レベル1認証済み暗号化が、すべてのフレームワークにおいて顧客金融データを転送時・保存時に保護します。インタラクションごとの改ざん検知可能な監査証跡がSIEMにフィードされ、SR 11-7のモニタリング、NYDFSの監査証跡、GLBAのログ、DORAのICTモニタリング、GDPR第30条の記録要件を単一の連続記録で満たします。

OCC審査官、NYDFS審査官、PCI QSAから「AIによる顧客金融データアクセスのガバナンスはどうなっているか」と問われた際、答えはポリシー文書ではなく「証拠パッケージ」です。

Kiteworksが金融サービス企業の全規制スタックにわたるAIコンプライアンスをどのように支援するか、ぜひお問い合わせください。

よくある質問

はい。SR 11-7は「統計的、経済的、金融的、または数学的理論・手法・前提を用いて入力データを定量的推定値に変換する定量的手法、システム、アプローチ」とモデルを広く定義しています。信用スコアリング、不正検出、トレーディング、顧客リスク評価など、金融判断に影響を与える機械学習・AIモデルはこの定義に完全に該当します。開発・検証・継続的モニタリング・人による介入の要件は、AIモデルにも従来の統計モデルと同等に厳格に適用されます。規制当局は、AIモデルの複雑さを理由にSR 11-7要件の免除や緩和は認めないことを審査ガイダンスや執行措置で明確にしています。

NYDFSパート500の2023年改正では、対象金融機関がAIシステムをサイバーセキュリティプログラムに含めることが明示的な規制要件となりました。具体的には、AIシステムを含む資産インベントリの維持、AIがアクセス可能なデータのアクセス権限制御、AIに関与するサイバーセキュリティイベントを検知・対応できる十分な監査証跡の維持、AI関連リスクを含む定期的なリスク評価の実施が求められます。また、経営幹部による年次コンプライアンス認証も義務付けられており、AIガバナンスは技術的課題だけでなく、取締役会レベルの責任事項となっています。NYDFS審査官は審査サイクルでAIガバナンスを積極的に評価しています。

GLBAのセーフガード規則は、金融機関に非公開個人情報への不正アクセス・利用を防ぐ包括的な情報セキュリティプログラムの実施を義務付けています。2023年の改正では、暗号化、明確な認可基準を持つアクセス制御、多要素認証、監査ログ保持など、NPIにアクセスするすべてのシステム(AIシステムを含む)に適用される具体的な要件が追加されました。顧客口座データへのアクセス、財務レポートの生成、ローン申請の処理を行うAIエージェントも、これらのセーフガード要件を満たす必要があります。GLBAが示唆する「必要最小限」基準(特定機能に必要な範囲でのみアクセスを許可)は、AIエージェントに対しても運用レベルで徹底されなければなりません(システムやフォルダ単位だけでは不十分です)。

カード会員データを保存・処理・伝送する、またはカード会員データ環境(CDE)にアクセスするAIシステムは、PCI DSSの対象となります。具体的には、CDEにアクセスするすべてのAIエージェントに固有識別子を付与、ビジネス上必要な最小限のアクセス制限、カード会員データへのすべてのアクセスを活動再構築可能な詳細でログ取得、転送時・保存時の強力な暗号化が求められます。決済処理、不正検出、カスタマーサービスワークフローでカード会員データに触れるAIツールは、PCIスコープ判定時に必ず評価対象となり、AIシステムであることを理由に自動的に除外されることはありません。

EU事業やEU顧客を持つ金融サービス企業にとって、DORAとGDPRは米国規制要件の上に重ねて適用されます(置き換えではありません)。DORAのICTリスク管理・第三者リスク要件は、EU規制下のAIシステムにリスク分類、アクセス制御、監査証跡、ベンダー評価を求め、米国のSR 11-7やGLBA要件と並行します。GDPR第22条は、EUデータ主体に影響を与える自動意思決定(信用スコアリング、不正検出、リスク評価AI)に、適法根拠、透明性、人によるレビューを追加義務として課します。実務的なガバナンスの意味としては、認証済みアクセス、ABAC方針、FIPS暗号化、改ざん検知可能な監査証跡を強制する単一のデータレイヤーガバナンスアーキテクチャが、米国・EU両フレームワークの証拠基準を同時に満たし、国際展開時のコンプライアンス負担を軽減します。

追加リソース

  • ブログ記事
    手頃なAIプライバシー保護のためのゼロトラスト戦略
  • ブログ記事
    77%の組織がAIデータセキュリティで失敗している理由
  • eBook
    AIガバナンスギャップ:2025年に91%の中小企業がデータセキュリティでロシアンルーレット状態に
  • ブログ記事
    あなたのデータに「–dangerously-skip-permissions」は存在しない
  • ブログ記事
    規制当局は「AIポリシーがあるか」だけでなく「機能している証拠」を求めている

まずは試してみませんか?

Kiteworksを使用すれば、規制コンプライアンスの確保とリスク管理を簡単に始めることができます。人、機械、システム間でのプライベートデータの交換に自信を持つ数千の組織に参加しましょう。今すぐ始めましょう。

Table of Content
Share
Tweet
Share
Explore Kiteworks