HIPAA、GDPR、SOXにAIの例外規定はない:コンプライアンス担当者が知っておくべきこと

AIアシスタントがエンタープライズ環境に登場したとき、コンプライアンスプログラムで異例のことが起きました。AIは「データアクセスシステム」ではなく「ツール」として分類されたのです。その論理は直感的でした——AIは従業員の業務効率化を支援するだけだと。

しかし、組織が機密データを取り扱う際に適用される規制フレームワークには「生産性向上ツール」というカテゴリは存在しません。

HIPAAコンプライアンスは、電子的な保護対象保健情報にアクセスするすべてのシステムに適用されます。

GDPRコンプライアンスは、個人データのあらゆる処理に適用されます。SOX IT全般統制は、財務報告の正確性に影響を与えるすべてのシステムに適用されます。

FedRAMPコンプライアンスは、連邦データを取り扱うクラウドサービスに適用されます。

これらのフレームワークのいずれにもAIに対する例外はありません。

本記事は、AIデータアクセスに既存のフレームワークがどこまで適用されるのか、現状の多くの導入でどこにドキュメントのギャップがあるのか、そして監査対応に本当に必要なものは何かを率直に評価したいコンプライアンス担当者や法務担当者向けです。

エグゼクティブサマリー

主なポイント:従業員による機密データへのアクセスを規定するコンプライアンス要件は、同じデータにアクセスするAIシステムにも同様に適用されます。規制当局はAI固有の例外を設けておらず、既存のフレームワークを適用し、AIガバナンスのギャップをコンプライアンス違反として扱う姿勢を示しています。多くのエンタープライズAI導入には、監査に耐えられない重大なドキュメントギャップが存在します。

なぜ重要か:人による規制データアクセスを適切に管理していても、AIシステムへの管理が及んでいない場合、そのギャップは現実的かつ拡大しています。現実的なのは、AIが既に規制データにアクセスしているにもかかわらず、必要なコントロールが未整備だからです。そして、規制当局がAIを明確にガイダンスや監査、執行優先事項に含め始めているため、ギャップは拡大しています。このギャップを先んじて埋める組織は、単に規制リスクを回避するだけでなく、防御可能なAIガバナンスを確立するためのドキュメント基盤を構築できます。

5つの重要なポイント

  1. HIPAA、GDPR、SOX、FedRAMP、SOC 2は、規制データにアクセスするAIシステムにも完全に適用されます。適用可否は「システムがカバレッジ対象データにアクセス・処理・送信するかどうか」で決まり、「人が操作するかどうか」ではありません。AIも他のデータアクセスシステムと同様にデータにアクセスするため、フレームワークが適用されます。
  2. エンタープライズAI導入で最も一般的なコンプライアンスギャップは監査時の責任帰属です:AIがサービスアカウントやAPIキーで規制データにアクセスし、誰がそのアクセスを指示したかログに記録されません。HIPAAの個別ユーザー識別要件、GDPRのアカウンタビリティ原則、SOXの監査証跡要件はいずれも、サービスアカウントのログでは満たせない個人単位の帰属を求めています。
  3. GDPRの第30条「処理活動記録」にはAIデータワークフローも含める必要があります。多くの第30条記録はAI導入前に作成されており、現状の処理実態を反映していません——これは単なる内部記録の不備ではなく、不正確な規制ドキュメントです。
  4. 規制当局はAI固有の法律を待たずにAIガバナンス違反への対応を始めています。ICO、OCR、SECはいずれも既存フレームワークの下でAIデータガバナンスを明示的に対象としたガイダンスや監査を開始しています。執行環境は多くのコンプライアンスプログラムよりも速く動いています。
  5. AIデータアクセスの監査対応には、人によるデータアクセスと同じドキュメントが必要です:すべてのアクセスイベントを責任ある個人に帰属させる完全な監査ログ、ポリシー施行の証拠、アクセスが最小限に制限されていたことを示す記録。現状のAI導入デフォルト設定では、これらの要件はいずれも満たされていません。

「AIは単なるツール」という誤ったコンプライアンス分類

AIアシスタントをツール——検索エンジンやワードプロセッサのようなもの——と捉える直感は理解できますが、規制の観点では誤りです。

規制上、データアクセスシステムと生産性向上ツールを分けるのは、ユーザーインターフェースや自動化の度合いではありません。システムが規制データにアクセス・処理・送信するかどうかが分かれ目です。

AIアシスタントが臨床質問に答えるためにPHIを含む文書を取得すれば、それはPHIへのアクセスです。AIパイプラインが顧客データを処理してサマリーレポートを生成すれば、それは個人データの処理です。AIワークフローが財務記録を読み四半期分析を支援すれば、それはSOX対象データの取り扱いです。

いずれの場合も、基になるデータを規定する規制フレームワークはAIシステムにも適用されます。AIシステムは他のデータアクセスシステムと同じく、規制データを読み取り、抽出し、返却しているからです。

「ツール」という捉え方が残るのは、AIが新しいユーザー体験を提供するからです。従業員は自然言語で質問し、回答を受け取ります。その背後で行われたデータアクセス——取得、処理、統合——はユーザーから見えません。

しかし、ユーザーインターフェースから見えないからといって、規制コンプライアンスの例外にはなりません。HIPAAセキュリティ規則は、会話型インターフェース経由のデータアクセスを理由にシステムを免除しません。GDPRも自動的に行われる処理に例外を設けていません。データアクセスが現実に発生していれば、規制義務はインターフェースではなくデータに従います。

コンプライアンス担当者にとっての実務的な帰結は、現在組織内で規制データにアクセスしているすべてのAIシステムを、データアクセスシステムとして該当フレームワークで評価すべきということです——新しいEHR連携、新しい財務報告ツール、新しいクラウドデータプロセッサと同じ厳格さで。AIがビジネス部門主導で迅速に「生産性向上施策」として導入されたからといって、その評価が免除されるわけではありません。単に評価がまだ行われていないだけです。

どのデータコンプライアンス基準が重要か?

Read Now

各フレームワークの適用範囲と、AI導入で多く見られる不備

エンタープライズAIデータアクセスで最も関与する5つのフレームワークには、それぞれAI導入が満たすべき具体的な要件があります。多くの場合、これらは新しい要件ではなく、元々データアクセスシステム向けに策定された既存要件であり、AIにも等しく適用されます。

フレームワーク AIデータアクセスへの適用 適用される具体的要件 多くのAI導入でのコンプライアンスギャップ
HIPAAセキュリティ規則 電子PHIを作成・受信・保持・送信するすべてのシステムに適用——ユーザーの問い合わせに応じてPHIを取得・要約・処理するAIシステムも含む。AI例外は存在しない。 すべてのアクセスイベントに対する個別ユーザー識別(§164.312(a)(2)(i));PHIへのアクセス者・時刻・実施内容を記録する監査コントロール;AIによる取得範囲にも最小限アクセス基準が適用 サービスアカウントによるAI認証では個別ユーザー識別を満たせない;ユーザー単位の認可なしでAIがPHIを取得すると最小限要件を満たせない;監査ログはAIアクセスを責任者に帰属させる必要がある
GDPR EU/UKデータ主体の個人データのあらゆる処理に適用——AIによる取得・分析・生成も含む。処理の定義は広範で、AIの特例はない。 AIによる取得を含む各処理ごとに合法的根拠が必要;データ最小化によりAI取得は必要最小限に限定;第30条処理活動記録にAIワークフローを含める;72時間以内の侵害通知が適用 個人データを処理するRAGパイプラインはクエリ種別ごとに合法的根拠の記録が必要;最小化には取得層でのユーザー単位認可が必要;第30条記録はAIデータフローを反映する必要がある
SOX(IT全般統制) 財務報告の正確性・整合性に影響するITシステムに適用——財務データにアクセス・処理・要約するAIシステムも含む。IT全般統制はすべての関連システムのアクセス管理をカバー。 財務データへの不正アクセス防止のためのアクセスコントロール;財務記録へのアクセス者の監査証跡;財務報告に影響するシステムの変更管理;職務分離 広範な財務データアクセス権を持つAIサービスアカウントはアクセス管理要件違反;AIアクセスは認可された個人ユーザーに帰属させる必要あり;財務報告範囲に関与するAIシステムは変更管理が必要
FedRAMP 連邦機関やその請負業者が利用するクラウドサービスに適用。FedRAMP認証環境内で連邦データを処理するAIシステムはAU(監査)・AC(アクセス制御)コントロールファミリーを満たす必要あり。 AU-2/AU-3はAI操作を含むすべてのアクセスイベントのログ記録を要求;AC-2は個別ユーザーアカウントを要求——共有サービスアカウントは非準拠;IA-2はすべてのシステムアクセスに多要素認証を要求 FedRAMP対象のAIシステムは個別認証(サービスアカウント不可)、ユーザー帰属付きの操作単位ログ、認可ユーザーへのAI取得範囲限定が必要
SOC 2 Type II 顧客データを取り扱うサービス組織に適用。トラストサービス基準は論理アクセス制御、監視、可用性をカバー——AIが対象データを扱う場合もすべて適用。 CC6.1は論理アクセス制御を要求;CC7.2はシステム活動の監視を要求;CC2.2はAI固有のアクセス方針を含む情報セキュリティ責任の伝達を要求 AIデータアクセスも他システムと同等の論理アクセス制御で管理する必要あり;異常なAI活動も監視範囲に含める必要あり;AIガバナンスポリシーのドキュメント化・伝達が必要

HIPAA:個別ユーザー識別、最小限アクセス、監査ログ問題

HIPAAセキュリティ規則におけるAIによるPHIアクセス要件は明確です。セクション164.312(a)(2)(i)は、カバードエンティティに対し、すべてのアクセスイベントごとにユーザー識別のための一意の名前または番号を割り当てて追跡する手順の実装を要求しています。AIシステムが共有サービスアカウントで認証される場合、この要件を満たしません。サービスアカウントはユーザーの一意識別子ではなく、誰がアクセスを指示したかを曖昧にします。サービスアカウントIDで記録されたアクセスイベントは、HIPAA監査の観点では責任者不明のアクセスイベントです。

最小限アクセスルールは、もう1つの具体的な要件を追加します。AIがクエリに応じてPHIにアクセスする場合、そのアクセス範囲は目的達成に必要な最小限に制限されなければなりません。

この要件には2つの側面があります。AIは特定のクエリに必要な範囲を超えてPHIにアクセスできないよう技術的に制約されている必要があり(これにはリクエストごとのRBACやABAC認可が必要で、権限過多なサービスアカウントアクセスでは不十分)、組織はその制約が実際に施行されたことを証明できなければなりません(すべてのアクセスイベントに対するポリシー施行決定のログが必要)。広範なサービスアカウントアクセスを持つRAGパイプラインは、いずれの要件も満たしません。

AI監査ログが不十分な場合のHIPAA侵害通知の影響は重大です。PHIを含む侵害が判明した場合、カバードエンティティは影響を受けた個人に、どのPHIが関与したかを通知しなければなりません。「AIサービスアカウントが患者記録にアクセスした」としか記録されていない監査ログでは、どの患者の記録がアクセスされたか、どの最小限範囲が適用されたか特定できません。

その結果、カバードエンティティは最悪のケースで通知範囲を設定せざるを得ず、実際に影響を受けたサブセットではなく、全患者に通知する可能性もあります。これは単なる技術的な不便ではなく、患者のプライバシー侵害であり、正確な監査ログがあれば回避できた評判リスクです。

GDPR:合法的根拠、データ最小化、第30条記録

GDPRによるAIデータ処理への適用は広範かつ具体的です。個人データのあらゆる処理——AIによる取得・分析・統合も含む——には第6条に基づく合法的根拠が必要です。多くのエンタープライズAIユースケースでは、該当する根拠は「正当な利益」または「契約履行」になるでしょう。ドキュメント要件としては、合法的根拠が各処理カテゴリごとに評価・記録されていること、かつその評価が最新であることが求められます。

多くの組織にとっての実務的な課題は、GDPR第30条「処理活動記録」——どの個人データが、どの目的で、どの法的根拠で、どのシステムで処理されているかの記録——がAI導入前に作成されており、現状の処理実態を反映していないことです。

人による顧客記録アクセスのみを記載し、現在はAIパイプラインが同じ記録を取得・要約している事実を記載していない第30条記録は、単なる不完全ではなく、不正確です。不正確な第30条記録は、GDPRのアカウンタビリティ原則に基づく直接的なコンプライアンス違反であり、侵害の有無に関わらず問題となります。

GDPR第5条1項(c)のデータ最小化は、処理される個人データが目的に照らして適切・関連性があり・必要最小限であることを要求します。AIによる取得の場合、取得範囲はクエリごとに必要なデータに技術的に限定されていなければなりません——関連性のみで広範に取得するだけでは要件を満たしません。

リポジトリから意味的に関連するすべての文書を取得し、各文書の個人データがクエリ目的に本当に必要か評価しないRAGパイプラインは、最小化原則を逸脱しています。これはAIの出力だけでなく、取得操作自体にも適用されます。

規制当局は待っていない:執行環境の現状

多くの法域でAI固有の法律が存在しないことから、一部のコンプライアンスプログラムはAIガバナンスを将来的な課題と捉えています。しかし、この姿勢は規制当局の動向を誤解しています。規制当局はAI固有の法律を待たず、既存フレームワークの下でAIガバナンスを審査しています。すでに現実の問題です。

英国情報コミッショナーオフィス(ICO)は、生成AIとUK GDPRに関する明確なガイダンスを発表し、AIシステムによる個人データ処理にも合法的根拠・データ最小化・アカウンタビリティなどの原則がすべて適用されること、そしてこれらは人による処理か自動処理かを問わず適用されることを明言しています。ICOはAIデータガバナンスを監査優先事項とする方針も示しています。

米国HHS民権局(OCR)は、カバードエンティティやビジネスアソシエイトによるAIツールのPHI処理にもHIPAAが適用され、既存のセキュリティ規則のアクセス制御・監査ログ・最小限アクセス要件がそのまま適用されることを明確化しました。OCRはPHIへのAIアクセス制御が不十分なカバードエンティティに対する調査も開始しています。

SECはAIガバナンスを監査優先事項に含め、AI支援による財務分析が帳簿・記録要件を満たしているかを重視しています。FINRAも証券業務でAIシステムを利用する場合、他システムと同等の監督コントロールを求めるガイダンスを発表しています。金融・医療・政府分野のコンプライアンス担当者にとって、執行リスクは将来の話ではなく、すでに現実のものです。

AIコンプライアンス監査対応:必ず答えられるべき8つの質問

組織のAIガバナンス体制を評価する最も実践的な方法は、監査人が尋ねるであろう質問を自問することです。以下のチェックリストは、それぞれの質問を該当フレームワークにマッピングし、「はい」と答えるために必要なアーキテクチャ上の要件を示しています。

監査対応のための質問 該当フレームワーク ステータス 「はい」と答えるために必要なもの
過去12か月間にAIによるデータアクセスを指示したすべての個人を特定できますか? HIPAA、GDPR、SOX、FedRAMP OAuth 2.0によるユーザー委譲認証と二重帰属監査ログが必要——サービスアカウントログでは不可
AIが取得したすべての文書・記録の完全なログ(責任者・タイムスタンプ付き)を提示できますか? HIPAA、GDPR、FedRAMP データ層でのリクエスト単位の取得ログが必要——アプリケーション層のセッションログでは不可
AIによる機密データアクセスが各クエリごとに必要最小限に制限されていたことを証明できますか? HIPAA最小限要件、GDPR最小化 取得前の認可スコープ設定とポリシー決定のログ記録が必要——取得後のフィルタリングでは不可
AIデータワークフローを含む処理活動記録がドキュメント化されていますか? GDPR第30条 AIシステム・処理データ種別・法的根拠の明示的なマッピングが必要——多くの第30条記録はAI導入前のもの
AIアクセス制御が、人による同一データアクセス制御と同等であることを証明できますか? SOX ITGC、SOC 2 CC6.1、FedRAMP AC-2 AIアクセスも非AIアクセスと同じRBAC/ABACポリシーで管理が必要——多くのAI導入は別で弱い制御を使用
侵害発生60日前までにAIがアクセスした個人のリストを完全に提示できますか? HIPAA侵害通知、GDPR第33条 文書単位・ユーザー単位の取得ログが必要——サービスアカウントログでは正確な通知範囲を特定できない
規制データを扱うAIシステムが年次リスク評価に含まれていますか? HIPAAセキュリティ規則、SOC 2、FedRAMP 多くのリスク評価はAI導入前に実施——新システムによる規制データアクセス時はギャップ評価が必要
AI固有のデータガバナンスポリシーがドキュメント化・承認・関係者に伝達されていますか? SOC 2 CC2.2、GDPRアカウンタビリティ原則 非公式なAIガバナンスでは不十分;ポリシーは正式に承認・バージョン管理・伝達の証拠が必要

ドキュメントギャップは技術問題ではなくアーキテクチャ問題

コンプライアンス担当者はAIガバナンスのギャップを「ドキュメントの問題」と捉えがちです:ポリシーを更新し、AIをリスク評価に追加し、第30条記録を改訂する——これらは必要なステップですが十分ではありません。なぜなら、多くのAI導入におけるドキュメントギャップは、データアクセス層のアーキテクチャギャップという根本原因の下流で生じているからです。

個人ユーザー帰属のないAIアクセスイベントについて、その帰属をドキュメント化することはできません。最小限アクセス施行記録が存在しない取得システムについて、その施行記録を作成することはできません。AI処理にデータ最小化の技術的実装がなければ、第30条記録を正確に更新することもできません。ドキュメントギャップはアーキテクチャ上の失敗の記録であり、失敗そのものではありません。

是正の順序が重要です:まずアーキテクチャを変え、その後にドキュメントがアーキテクチャの施行内容を正確に反映できるようになります。AIガバナンスを参照するようHIPAAポリシーを更新しても、必要なアクセス制御や監査ログが未導入であれば、そのポリシー自体がドキュメント上のリスクとなります。HIPAAの侵害通知フレームワークでは、セキュリティ規則で求められる技術的安全策がポリシーに記載されていない場合、それ自体が侵害とは別個のコンプライアンス違反です。

コンプライアンス担当者への核心メッセージはこれです:AIガバナンスの是正はIT・セキュリティアーキテクチャのプロジェクトであり、コンプライアンスドキュメントはその成果物です。ドキュメントはアーキテクチャが施行する内容の証拠です。アーキテクチャがなければドキュメントは虚構に過ぎません。アーキテクチャがあれば、ドキュメントは準拠システムの防御可能な記録となります。

Kiteworksによるコンプライアンス対応AIガバナンスドキュメントの生成

AIデータアクセスにおいて最も重要なコンプライアンス上の問いは、「ポリシーがAIガバナンスを参照しているか」ではなく、「AIアーキテクチャがそのポリシーで主張される証拠を生成しているか」です。各フレームワーク要件——個別ユーザー帰属、最小限アクセス施行、アクセス制御の同等性、完全な監査証跡——について、その証拠はコンプライアンスドキュメントに記載される前にシステムログとして存在していなければなりません。

Kiteworksは、設定ではなく設計段階からこの証拠を生成します。Kiteworksプライベートデータネットワーク経由のすべてのAIデータアクセスイベント——RAGパイプライン向けAIデータゲートウェイやAIアシスタントワークフロー向けセキュアMCPサーバー経由——は、HIPAA、GDPR、SOXが求める二重帰属でログ記録されます:AIシステムIDと、そのアクセスを指示した認証済み人間ユーザー、アクセスした具体的データ、適用された認可ポリシー決定、タイムスタンプ。OAuth 2.0(PKCE対応)により、認証フロー全体で個人ユーザーIDが維持され、サービスアカウントによる匿名化はありません——すべての監査エントリが特定個人に帰属します。

取得層でのリクエスト単位RBAC・ABAC施行により、各アクセスイベントごとにポリシー決定のログを生成——「何にアクセスしたか」だけでなく、「アクセス制御ポリシーが何を許可・拒否し、その理由は何か」まで記録します。HIPAA最小限アクセスドキュメントとしては、アクセスが技術的に制約されていた証拠となります。

GDPRデータ最小化ドキュメントとしては、取得範囲がクエリ要件に技術的に限定されていた証拠となります。SOXアクセス制御ドキュメントとしては、財務データアクセスが他の認可チャネルと同じポリシーで管理されていた証拠となります。

Kiteworksの監査ログはSIEMとリアルタイム連携し、CISOダッシュボードに反映され、監査対応ドキュメント用のレポートを生成します。セキュアファイル共有、マネージドファイル転送セキュアメールを管理する同じデータガバナンスフレームワークがAIデータアクセスにも適用されるため、第30条記録、HIPAAリスク評価、SOC 2コントロールドキュメントが、人とAIのアクセスで分断されることなく、一貫したデータコンプライアンス体制を反映します。

次回監査までにAIガバナンスのドキュメントギャップを解消したいコンプライアンス担当者には、Kiteworksが証拠を生成するアーキテクチャを提供します。詳細はカスタムデモを今すぐご予約ください

よくある質問

いずれも、規制データにアクセス・処理・送信するシステムすべてに適用されます——保存のみを対象としているわけではありません。HIPAAコンプライアンスは、電子PHIを作成・受信・保持・送信するすべてのシステムを対象とします。臨床質問に答えるためにPHIを取得するAIアシスタントは、PHIを受信・送信しています。GDPRコンプライアンスは個人データのあらゆる処理を対象とし、AIによる取得・分析・統合もすべて処理に該当します。SOX IT全般統制は、財務報告の正確性や整合性に影響するすべてのシステムに適用され、財務記録を要約するAIシステムも対象です。AIを「ツール」として分類し「システム」ではないとする根拠は、これらのフレームワークにはありません。

GDPR第30条は、組織に対し処理活動記録の維持を義務付けています——どの個人データが、どの目的で、どのシステムで、どの法的根拠で、どの安全策とともに処理されているかのドキュメントです。これらの記録は最新かつ正確でなければならず、要請があれば監督当局に提出できなければなりません。個人データを処理するAIシステムは、第30条記録に記載すべき処理活動です。多くの組織の第30条記録はAI導入前に最後の更新がなされており、現状の処理実態を反映していません——つまり、現在規制当局に提出している記録が実際の処理内容と一致していないのです。これは侵害の有無に関わらず、GDPRのアカウンタビリティ原則に基づく直接的なコンプライアンス違反です。

HIPAA最小限アクセスルールは、PHIへのアクセスを目的達成に必要な最小限に制限することを要求します。AIシステムの場合、2つの意味があります:AIが特定クエリに必要な範囲を超えてPHIにアクセスできないよう技術的に制約されていること(取得層でのリクエスト単位認可スコープが必要で、権限過多なサービスアカウントアクセスでは不可)、そして各アクセスイベントごとにこの制約が施行された証拠を提示できること(ポリシー施行決定のログ記録が必要)。AIの関連性スコアで取得範囲を制限するデータガバナンスアーキテクチャでは、最小限アクセスルールを満たせません——関連性と必要性は同じ基準ではありません。

はい。ICOはUK GDPRを生成AIに適用する明確なガイダンスを発表し、AIガバナンスを監査優先事項としています。HHS OCRはAIツールによるPHI処理にもHIPAAが適用されることを明確化し、AIアクセス制御が不十分なカバードエンティティへの調査を開始しています。SECとFINRAは金融サービス企業に対し、AIデータガバナンスを監査優先事項に含めています。これらの法域の規制当局はAI固有の法律を待たず、現行権限の下で既存フレームワークを適用しています。AIガバナンスを将来の課題と捉えているコンプライアンス担当者は、既に適用範囲にあるフレームワーク下での現状の執行リスクを評価すべきです。

HIPAA、GDPR、SOXにおけるAIコンプライアンスの最低限のドキュメントパッケージは以下を含みます:すべてのAIデータアクセスイベントを責任ある個人ユーザーに帰属させる完全な監査ログ(サービスアカウントでは不可);アクセス制御がリクエスト単位で施行された証拠(各アクセスイベントのポリシー決定を含む);現状のAI処理内容を反映した第30条記録(GDPR)またはリスク評価ドキュメント(HIPAA);AIアクセス制御基準が非AIアクセス制御基準と同等である証拠;正式に承認・バージョン管理され、関係者に伝達されたAIガバナンスポリシー。これらのドキュメントを正確に反映できるアーキテクチャが先に存在していなければなりません——アーキテクチャが施行していない内容を主張するポリシードキュメントは、追加の規制リスクとなります。

追加リソース

  • ブログ記事
    手頃なAIプライバシー保護のためのゼロトラスト戦略
  • ブログ記事
    77%の組織がAIデータセキュリティで失敗している理由
  • eBook
    AIガバナンスギャップ:2025年に91%の中小企業がデータセキュリティでロシアンルーレット状態に
  • ブログ記事
    あなたのデータには「–dangerously-skip-permissions」は存在しない
  • ブログ記事
    規制当局は「AIポリシーがあるか」を問う段階を終えました。今求められるのは、機能している証拠です。

まずは試してみませんか?

Kiteworksを使用すれば、規制コンプライアンスの確保とリスク管理を簡単に始めることができます。人、機械、システム間でのプライベートデータの交換に自信を持つ数千の組織に参加しましょう。今すぐ始めましょう。

Table of Content
Share
Tweet
Share
Explore Kiteworks