Exigences de conformité liées à l’IA pour les gouvernements locaux et régionaux : ce qu’il faut savoir

Les agences gouvernementales étatiques et locales déploient l’IA dans les services aux citoyens, la sécurité publique, la gestion des prestations, le contrôle fiscal et les systèmes judiciaires à un rythme qui dépasse les cadres de gouvernance en place dans la plupart des juridictions. Les données détenues par ces agences — dossiers de justice pénale, données de santé publique, informations sur les prestations, dossiers judiciaires et informations personnelles de chaque résident de leur juridiction — figurent parmi les plus sensibles du secteur public, et les systèmes d’IA qui les traitent héritent de toutes les obligations de conformité qui y sont associées.

Le paysage de la conformité superpose les exigences des programmes fédéraux — CJIS pour les données de justice pénale, HIPAA pour les données de santé, FERPA pour les dossiers éducatifs — aux lois étatiques sur la gouvernance de l’IA, aux obligations de transparence des documents publics, aux exigences constitutionnelles de procédure régulière pour les décisions prises par l’IA, ainsi qu’aux cadres de sécurité cloud régissant l’achat de technologies gouvernementales. Aucun cadre unique ne couvre l’ensemble. La gouvernance de l’IA pour les gouvernements étatiques et locaux implique de satisfaire simultanément à tous les cadres applicables — et de savoir lesquels s’appliquent à chaque déploiement.

Executive Summary

Idée principale : La conformité de l’IA au sein des gouvernements étatiques et locaux exige de répondre à un empilement d’exigences fédérales, de lois étatiques sur la gouvernance de l’IA, d’obligations de transparence des documents publics et de garanties constitutionnelles de procédure régulière — le tout simultanément, avec une gouvernance rigoureuse au niveau des données pour protéger les informations personnelles identifiables, les données de justice pénale, les informations médicales protégées et les dossiers éducatifs que les agences détiennent pour le compte de leurs administrés.

Pourquoi c’est important : Les agences gouvernementales qui déploient l’IA sans une gouvernance adéquate s’exposent à des sanctions fédérales (perte d’accès au CJIS, conditions de financement fédéral), à des violations des lois étatiques sur l’IA, à la divulgation publique de décisions générées par l’IA, et à des recours pour non-respect de la procédure régulière lorsque l’IA influence des décisions judiciaires. Le niveau d’exigence en matière de responsabilité pour l’IA gouvernementale est plus élevé que dans le secteur privé — les résidents concernés ne peuvent pas changer de prestataire de service.

Résumé des points clés

  1. La politique de sécurité CJIS s’applique à tout système d’IA accédant à des informations de justice pénale — y compris les outils d’IA utilisés dans la gestion des dossiers, la police prédictive et les plateformes d’évaluation des risques avant procès — sans aucune exception pour l’accès piloté par l’IA.
  2. StateRAMP et FedRAMP constituent les cadres d’autorisation de sécurité cloud pour l’achat d’IA gouvernementale — les outils d’IA doivent atteindre le niveau d’autorisation requis avant de traiter des données gouvernementales.
  3. Les lois étatiques sur la gouvernance de l’IA — adoptées ou en cours dans plus de 20 États — imposent des exigences de transparence, d’évaluation d’impact et de responsabilité pour l’IA dans la prise de décision gouvernementale, indépendamment des cadres fédéraux.
  4. Les lois sur les documents publics créent des obligations spécifiques de transparence liées à l’IA — les décisions gouvernementales générées par l’IA, les méthodologies et les données d’entraînement peuvent être soumises à des demandes FOIA et à des obligations de divulgation sur la responsabilité algorithmique.
  5. Les exigences constitutionnelles de procédure régulière s’appliquent lorsque l’IA influence des décisions affectant les droits des résidents — refus de prestations, détention préventive, décisions de protection de l’enfance et mesures de contrôle fondées sur l’IA doivent inclure un examen humain significatif.

Paysage de la conformité IA pour les gouvernements étatiques et locaux

Politique de sécurité CJIS. La politique de sécurité du Criminal Justice Information Services (CJIS) du FBI régit l’accès aux informations de justice pénale (CJI) — y compris les antécédents judiciaires, les données d’arrestation, les données biométriques et les données NCIC. La conformité CJIS s’applique à toute agence et tout système accédant à des CJI, sans exception pour l’IA. Les systèmes d’IA utilisés pour la gestion des dossiers, l’évaluation des risques avant procès, l’analyse policière et les plateformes de répartition doivent respecter les exigences CJIS en matière de contrôle d’accès, de chiffrement, d’audit et de sécurité du personnel. Concrètement : chiffrement validé FIPS 140-3 niveau 1 pour les CJI en transit et au repos, accès authentifié avec MFA et journaux d’audit infalsifiables pour chaque accès aux CJI. Perdre l’accès au CJIS — conséquence d’une non-conformité majeure — signifie perdre la connectivité NCIC, ce qui est catastrophique pour toute agence de maintien de l’ordre.

StateRAMP et FedRAMP. StateRAMP est le cadre d’autorisation de sécurité cloud conçu spécifiquement pour les gouvernements étatiques et locaux, inspiré de FedRAMP et permettant aux agences étatiques de sélectionner des outils d’IA hébergés dans le cloud évalués selon les normes de sécurité gouvernementales. Les outils d’IA dans des environnements cloud commerciaux doivent être conformes à StateRAMP ou FedRAMP au niveau requis — Bas, Modéré ou Élevé — avant de traiter des données gouvernementales. De nombreux outils d’IA commerciaux n’ont obtenu aucune autorisation. Les agences qui achètent des outils d’IA sans vérifier leur statut d’autorisation déploient des systèmes qui n’ont pas été évalués selon les exigences de sécurité gouvernementales.

HIPAA, FERPA et exigences des programmes fédéraux. Les agences étatiques qui gèrent Medicaid, des programmes de santé publique ou des services de santé comportementale sont des entités couvertes par HIPAA. L’IA accédant à des informations médicales protégées dans ces programmes doit répondre aux exigences HIPAA, notamment la signature de BAAs avec les fournisseurs d’IA, la mise en place de contrôles d’accès, le chiffrement et le respect du principe du minimum nécessaire. Les agences éducatives étatiques et les districts scolaires soumis à FERPA doivent s’assurer que les fournisseurs d’IA accédant aux dossiers des élèves disposent de protections contractuelles conformes aux exigences de FERPA pour les agents scolaires. Les conditions de financement fédéral pour ces programmes et d’autres intègrent de plus en plus des exigences de gouvernance de l’IA comme condition de participation.

Lois étatiques sur la gouvernance de l’IA. Plus de 20 États ont adopté ou sont en train de faire avancer des lois sur la gouvernance de l’IA imposant des exigences à l’utilisation de l’IA par le gouvernement : évaluations d’impact avant déploiement pour les IA à haut risque ; obligations de transparence lorsque l’IA influence des décisions gouvernementales ; mécanismes de revue humaine pour l’IA décisionnelle ; restrictions sur la reconnaissance faciale et les scores de risque avant procès ; et audits réguliers des biais. Les lois sur la confidentialité des données en Californie, au Colorado, en Virginie et ailleurs imposent des droits relatifs aux décisions automatisées qui s’appliquent au traitement par l’IA des informations personnelles des résidents.

Documents publics et procédure régulière. Les lois FOIA étatiques peuvent exiger la divulgation des décisions gouvernementales générées par l’IA, des méthodologies et des données d’entraînement — et les lois sur la responsabilité algorithmique dans plusieurs juridictions imposent la divulgation proactive de l’utilisation de l’IA par le gouvernement. La procédure régulière constitutionnelle s’applique lorsque l’IA influence des décisions affectant les droits légaux des résidents : prestations, licences, détention préventive, contrôle. Les tribunaux de plusieurs juridictions ont constaté des violations de la procédure régulière dans des décisions gouvernementales pilotées par l’IA qui manquaient de transparence ou d’examen humain réel.

Tableau 1 : Exigences de conformité IA pour les gouvernements étatiques et locaux
Cadre Périmètre Exigence spécifique à l’IA Application / Conséquence
Politique de sécurité CJIS Toute agence ou système accédant à des CJI Accès authentifié, chiffrement FIPS, journaux d’audit infalsifiables, sécurité du personnel pour toute IA accédant à des CJI Suspension de l’accès aux CJI par le FBI ; perte de connectivité NCIC ; sanctions fédérales
StateRAMP / FedRAMP Outils d’IA hébergés dans le cloud utilisés par les agences étatiques/locales Autorisation au niveau requis (Bas/Modéré/Élevé) avant traitement de données gouvernementales Interdiction d’achat ; annulation de contrat ; responsabilité en cas d’incident de sécurité
HIPAA Agences étatiques gérant des programmes de santé impliquant des informations médicales protégées BAA avec les fournisseurs d’IA ; contrôles d’accès ; chiffrement FIPS ; minimum nécessaire ; journaux d’audit pour les IA accédant à des informations médicales protégées Application par HHS OCR ; conditions de conformité aux programmes fédéraux ; sanctions financières civiles
FERPA Agences éducatives étatiques et districts scolaires Protections contractuelles pour l’accès des fournisseurs d’IA aux dossiers éducatifs ; contrôles d’accès ; restrictions de divulgation Perte de financement fédéral pour l’éducation ; application par le Département de l’Éducation
Lois étatiques sur la gouvernance de l’IA Agences étatiques et locales dans les juridictions dotées de lois sur l’IA Évaluations d’impact ; obligations de transparence ; revue humaine pour l’IA décisionnelle ; audits des biais Actions d’application étatiques ; contrôle législatif ; restrictions d’achat
Documents publics / FOIA Toutes les agences gouvernementales Décisions et méthodologies IA potentiellement communicables ; obligations de responsabilité algorithmique dans certaines juridictions Divulgation imposée ; contentieux ; atteinte à la réputation en cas d’échec de l’IA rendu public

Où l’IA crée les plus grands écarts de conformité dans les gouvernements étatiques et locaux

IA accédant à des CJI sans contrôles conformes CJIS. L’écart le plus critique pour les agences de sécurité publique : des outils d’IA accédant à des informations de justice pénale sans contrôles d’accès, chiffrement et traçabilité exigés par le CJIS. Les agences qui adoptent l’IA pour la gestion des dossiers et l’analyse se concentrent souvent sur les capacités opérationnelles sans vérifier la conformité CJIS. Les failles récurrentes : absence de chiffrement validé FIPS pour les CJI ; absence de traçabilité par accès attribuant chaque requête IA à un utilisateur authentifié et à un objectif ; et personnel du fournisseur d’IA accédant à des CJI sans les vérifications d’antécédents et la formation exigées par CJIS. Perdre l’accès au CJIS — conséquence d’une non-conformité majeure — signifie perdre la connectivité NCIC, ce qui est catastrophique pour toute agence de maintien de l’ordre.

Outils d’IA commerciaux achetés sans vérification StateRAMP ou FedRAMP. Les agences étatiques et locales adoptent des outils d’IA commerciaux à un rythme qui dépasse souvent les processus d’achat conçus pour évaluer l’autorisation de sécurité cloud. Résultat : l’IA traite des données gouvernementales sensibles — informations personnelles identifiables des résidents, casiers judiciaires, informations médicales protégées, données judiciaires — sur une infrastructure cloud non évaluée selon les normes gouvernementales. StateRAMP a été créé précisément pour combler cette lacune, mais de nombreuses agences n’ont pas intégré la vérification StateRAMP comme étape obligatoire dans leurs achats d’IA.

IA dans les décisions judiciaires sans garanties de procédure régulière. Les agences gouvernementales déploient l’IA dans des décisions qui affectent directement les droits légaux des résidents : éligibilité aux prestations, scores de risque avant procès, filtrage des services de protection de l’enfance, contrôle fiscal. Les exigences de procédure régulière — notification, possibilité d’être entendu et décideur effectif — ne disparaissent pas avec l’IA. Les tribunaux de plusieurs juridictions ont constaté des violations de la procédure régulière dans des décisions gouvernementales pilotées par l’IA qui manquaient de transparence ou d’examen humain réel. Les agences qui déploient l’IA dans des processus décisionnels sans ces garanties s’exposent à des recours constitutionnels de plus en plus couronnés de succès.

Exposition des méthodologies et résultats IA dans les documents publics. Lorsqu’une agence utilise l’IA pour influencer une décision — refus de prestation, score de risque avant procès, signalement d’un contribuable pour audit — cette décision et le processus qui l’a produite peuvent être soumis à des demandes d’accès aux documents publics. Dans les juridictions dotées de lois sur la responsabilité algorithmique, les agences peuvent être tenues de divulguer de manière proactive l’utilisation de l’IA. Les agences qui n’ont pas évalué les implications FOIA avant de déployer l’IA risquent de voir les décisions prises par l’IA moins défendables publiquement que celles prises par des humains — en particulier si la précision ou les biais du système d’IA ne résistent pas à la transparence.

Fournisseurs d’IA tiers sans protections spécifiques aux données gouvernementales. Les agences étatiques et locales utilisent des logiciels commerciaux intégrant de l’IA — plateformes RH, gestion des permis, gestion des dossiers de protection de l’enfance — qui traitent des données gouvernementales sensibles sans que l’équipe conformité en soit explicitement informée. Les programmes GRC qui évaluent les fournisseurs sur la cybersécurité générale mais pas sur la conformité CJIS, HIPAA, FERPA ou StateRAMP spécifique à l’IA passent à côté de l’essentiel pour la conformité IA gouvernementale.

Quelles normes de conformité des données sont importantes ?

Pour en savoir plus :

Émergence de recommandations spécifiques à l’IA pour les gouvernements étatiques et locaux

Législation étatique sur la gouvernance de l’IA. Des États comme la Californie, le Colorado, l’Illinois, le Texas et la Virginie ont adopté ou font avancer des lois sur la gouvernance de l’IA imposant des évaluations d’impact, des obligations de transparence, des mécanismes de supervision humaine et des audits des biais pour l’utilisation de l’IA par le gouvernement. Plusieurs États ont adopté des restrictions spécifiques sur la reconnaissance faciale et l’utilisation des scores de risque avant procès par les agences gouvernementales. La tendance est claire : les législateurs exigent que l’IA gouvernementale soit explicable, auditable et soumise à une supervision humaine réelle avant d’être utilisée dans des décisions affectant les droits des résidents.

NIST AI RMF pour le gouvernement. Le NIST CSF et le NIST AI Risk Management Framework sont les principaux cadres fédéraux qui guident les programmes de gouvernance de l’IA des gouvernements étatiques et locaux. De nombreux États adaptent les recommandations du NIST AI RMF comme base pour les évaluations des risques liés à l’IA et les exigences d’achat. Les agences qui fondent leur gouvernance IA sur le NIST AI RMF sont bien positionnées pour répondre à la fois aux exigences fédérales existantes et aux nouvelles obligations étatiques en matière de gouvernance de l’IA.

Conditions IA des programmes fédéraux. Les agences fédérales qui gèrent des programmes de financement pour les gouvernements étatiques et locaux — HHS, HUD, DOJ, DOL — développent des recommandations imposant des exigences de gouvernance IA comme condition de participation aux programmes fédéraux : transparence sur l’utilisation de l’IA dans la gestion des programmes, évaluations d’impact pour l’IA affectant des populations protégées, et exigences de revue humaine pour les décisions d’éligibilité influencées par l’IA. Les agences étatiques et locales qui gèrent des programmes fédéraux doivent surveiller ces recommandations, car elles introduisent de nouvelles obligations de conformité IA via les conditions de financement plutôt que par la législation.

Construire un programme IA conforme pour les gouvernements étatiques et locaux

La conformité IA gouvernementale implique de satisfaire simultanément aux exigences CJIS, HIPAA, FERPA, StateRAMP, aux lois étatiques sur la gouvernance de l’IA et aux exigences de procédure régulière. Les contrôles techniques de base couvrent tous les cadres ; les dimensions de responsabilité publique et de procédure régulière sont spécifiques au contexte gouvernemental.

Recensez tous les outils d’IA accédant à des données réglementées avant leur déploiement. Identifiez chaque catégorie de données réglementées à laquelle tout nouvel outil d’IA peut accéder : CJI, informations médicales protégées, dossiers éducatifs, informations personnelles identifiables soumises aux lois étatiques sur la confidentialité, données judiciaires. Cet inventaire détermine les cadres applicables et les contrôles requis. Déployer l’IA sans cette étape crée presque toujours une exposition à la non-conformité sur des catégories non évaluées par l’agence acheteuse.

Vérifiez l’autorisation StateRAMP ou FedRAMP comme étape obligatoire d’achat. Chaque outil d’IA hébergé dans le cloud doit être évalué pour l’autorisation StateRAMP ou FedRAMP au niveau approprié avant l’achat. Intégrez cette vérification comme étape obligatoire, et non comme une vérification post-attribution. Les agences qui achètent sans vérifier l’autorisation acquièrent des systèmes non évalués selon les normes de sécurité gouvernementales.

Mettez en œuvre des contrôles conformes CJIS pour les systèmes d’IA accédant à des CJI. Chiffrement validé FIPS 140-3 niveau 1 en transit et au repos ; accès authentifié MFA pour chaque agent IA ; journaux d’audit opérationnels retraçant chaque accès CJI avec l’identité de l’agent et l’objectif ; et contrôles contractuels sur l’accès du personnel du fournisseur d’IA. La conformité CJIS pour l’IA consiste à appliquer les exigences existantes de la politique de sécurité à une nouvelle catégorie de systèmes accédant à des CJI.

Intégrez des garanties de procédure régulière dans les processus décisionnels influencés par l’IA. Pour toute IA influençant des décisions affectant les droits des résidents — prestations, licences, détention préventive, contrôle — mettez en place : une information aux résidents concernés sur l’utilisation de l’IA ; la possibilité de demander une revue humaine ; une revue humaine réelle capable de contredire la décision de l’IA ; et une traçabilité attribuant chaque décision influencée par l’IA à un décideur humain autorisé. Ces garanties répondent à la fois aux exigences constitutionnelles de procédure régulière et aux dispositions de supervision humaine des lois étatiques sur la gouvernance de l’IA.

Appliquez des contrôles d’accès et une traçabilité opérationnelle sur tous les domaines de données sensibles. Une politique ABAC limitant les agents IA aux seules données nécessaires à leur fonction répond simultanément au principe du moindre privilège CJIS, au minimum nécessaire HIPAA et aux restrictions d’accès FERPA. Les journaux d’audit opérationnels attribués aux agents authentifiés et aux autorisateurs humains, alimentant votre SIEM, répondent aux exigences d’audit CJIS, aux contrôles d’audit HIPAA et aux obligations de documentation des lois étatiques sur la gouvernance de l’IA dans un enregistrement continu unique.

Kiteworks Compliant AI : conçu pour les standards de gouvernance des données gouvernementales

Les agences gouvernementales étatiques et locales ont besoin d’une gouvernance IA qui réponde aux exigences probatoires spécifiques des auditeurs CJIS, des examinateurs HHS OCR, des chambres d’audit étatiques et des commissions de contrôle législatif — et non de solutions de conformité généralistes qui n’atteignent que partiellement ces standards hors contexte gouvernemental.

L’IA conforme de Kiteworks régit l’accès des agents IA aux données gouvernementales à l’intérieur du Réseau de données privé, au niveau des données, avant toute interaction IA avec des CJI, des informations médicales protégées, des informations personnelles identifiables des résidents ou des dossiers éducatifs.

Chaque agent IA est authentifié avec une identité liée à un autorisateur humain, ce qui répond aux exigences de documentation de sécurité du personnel CJIS et de contrôle d’accès HIPAA. La politique ABAC applique le moindre privilège au niveau opérationnel, répondant simultanément au minimum nécessaire CJIS, à la règle du minimum nécessaire HIPAA et aux restrictions d’accès FERPA.

Le chiffrement validé FIPS 140-3 niveau 1 protège les CJI, les informations médicales protégées et les informations personnelles identifiables des résidents en transit et au repos, répondant ainsi aux exigences CJIS et aux standards de chiffrement de la règle de sécurité HIPAA.

Une traçabilité infalsifiable de chaque interaction agent alimente votre SIEM, répondant aux exigences d’audit CJIS, aux contrôles d’audit HIPAA et aux obligations de documentation imposées par les lois étatiques sur la gouvernance de l’IA et la procédure régulière.

Lorsque votre auditeur étatique ou une commission de contrôle législative vous demande comment votre agence régit l’accès de l’IA aux données des résidents, la réponse est un dossier de preuves — pas une simple description de politique.

Contactez-nous pour découvrir comment Kiteworks contribue à la conformité IA des agences gouvernementales sur l’ensemble de votre pile de conformité.

Foire aux questions

Oui, sans exception. La politique de sécurité CJIS du FBI s’applique à tout système — opéré par un humain ou piloté par l’IA — accédant à des CJI. Les systèmes d’IA utilisés pour la gestion des dossiers, l’analyse prédictive, la répartition ou l’évaluation des risques avant procès qui accèdent à des CJI doivent respecter toutes les exigences CJIS : chiffrement validé FIPS, accès authentifié MFA, traçabilité opérationnelle et contrôles contractuels sur le personnel du fournisseur ayant accès aux CJI. Les évaluations de conformité CJIS qui n’intègrent pas les systèmes d’IA accédant à des CJI présentent des lacunes que les audits CJIS du FBI détecteront. La suspension de l’accès aux CJI — conséquence d’une non-conformité majeure — est catastrophique pour toute agence de maintien de l’ordre.

StateRAMP est un cadre d’autorisation de sécurité cloud conçu spécifiquement pour les gouvernements étatiques et locaux, inspiré de FedRAMP et adapté au contexte étatique avec des exigences de sécurité propres à chaque État et une gouvernance impliquant les CISOs étatiques. Les autorisations FedRAMP sont généralement reconnues par StateRAMP, de sorte qu’un outil d’IA autorisé FedRAMP est en principe accepté pour un usage gouvernemental étatique au niveau d’impact correspondant. Ensemble, la conformité StateRAMP et FedRAMP apporte la réponse officielle à la question de savoir si un outil d’IA hébergé dans le cloud a été évalué selon les normes de sécurité gouvernementales — les agences doivent vérifier le statut d’autorisation avant que tout outil d’IA ne traite des données gouvernementales sensibles.

Lorsqu’une agence gouvernementale utilise l’IA pour influencer de manière significative une décision affectant les droits légaux d’un résident — éligibilité aux prestations, licences professionnelles, détention préventive, contrôle — la procédure régulière s’applique. Les tribunaux ont systématiquement jugé que la procédure régulière exige notification, possibilité d’être entendu et décideur effectif. Pour les décisions influencées par l’IA, cela implique : informer sur l’utilisation de l’IA et son rôle ; permettre de contester le résultat de l’IA avec des preuves ; et garantir une revue humaine réelle capable de contredire l’IA avant que la décision ne devienne définitive. Plusieurs tribunaux étatiques ont constaté des violations de la procédure régulière dans des décisions gouvernementales pilotées par l’IA sans transparence ni revue humaine, et les tribunaux fédéraux sont de plus en plus réceptifs à ces recours.

Dans la plupart des juridictions, oui. Les décisions gouvernementales générées par l’IA sont des documents publics soumis aux lois applicables sur l’accès aux documents. Le résultat de l’IA — refus de prestation, score de risque, recommandation de contrôle — est un document public lorsqu’il influence une action officielle de l’agence. La méthodologie, les données d’entraînement et les indicateurs de performance peuvent aussi être communicables selon la loi étatique applicable et la législation sur la responsabilité algorithmique. Plusieurs États exigent que les agences divulguent de manière proactive l’existence et le fonctionnement des systèmes d’IA utilisés dans les décisions affectant les résidents. Les agences doivent évaluer les implications FOIA avant de déployer l’IA dans les processus décisionnels — en particulier pour les systèmes dont la précision ou les biais pourraient poser problème en cas de divulgation publique.

L’évaluation des fournisseurs d’IA gouvernementale doit porter sur les cadres spécifiques régissant les données auxquelles le fournisseur aura accès. Pour les fournisseurs accédant à des CJI : vérifiez la conformité CJIS, confirmez les exigences de vérification d’antécédents pour le personnel ayant accès aux CJI et évaluez la volonté du fournisseur de respecter les exigences contractuelles CJIS. Pour les fournisseurs accédant à des informations médicales protégées : vérifiez que le fournisseur signera un BAA conforme HIPAA. Pour les dossiers éducatifs : vérifiez les protections contractuelles conformes FERPA. Pour toute IA hébergée dans le cloud : vérifiez l’autorisation StateRAMP ou FedRAMP au niveau approprié. Les programmes de gouvernance des données IA qui n’évaluent que la posture de sécurité générale — sans vérification de conformité spécifique au cadre — passent à côté de la surface de conformité la plus critique pour la protection des données gouvernementales.

Ressources complémentaires

  • Article de blog
    Stratégies Zero‑Trust pour une protection abordable de la vie privée par l’IA
  • Article de blog
    Comment 77 % des organisations échouent à sécuriser les données IA
  • eBook
    Le fossé de la gouvernance IA : pourquoi 91 % des petites entreprises jouent à la roulette russe avec la sécurité des données en 2025
  • Article de blog
    Il n’existe pas de « –dangerously-skip-permissions » pour vos données
  • Article de blog
    Les régulateurs ne se contentent plus de demander si vous avez une politique IA. Ils veulent des preuves concrètes.

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks