Les agents IA représentent la plus grande menace pour la sécurité des données que vous ne contrôlez pas

Quelque chose a discrètement changé dans la sécurité des entreprises cette année, et la plupart des organisations sont passées à côté.

Les agents IA — des systèmes autonomes capables de raisonner, d’agir et d’interagir seuls avec les ressources de l’entreprise — sont passés des phases pilotes à des workflows en production. Ils ajustent les allocations de ressources cloud, exécutent des processus métiers complexes, interrogent des bases de données et interagissent avec des API externes. Ils le font avec une grande autonomie, à la vitesse des machines, et souvent sans supervision humaine continue.

Et voici ce qui devrait inquiéter chaque RSSI : l’infrastructure de sécurité encadrant ces agents n’a pas suivi leur déploiement. Loin de là.

Le rapport Cyber Pulse de Microsoft confirme que plus de 80 % des entreprises du Fortune 500 déploient aujourd’hui des agents IA actifs, dont beaucoup sont créés via des outils low-code et no-code, mettant la création d’agents à la portée des utilisateurs métiers, pas seulement des développeurs. Le même rapport lance un avertissement clair : ces agents « se déploient plus vite que certaines entreprises ne peuvent les voir ». Ce manque de visibilité n’est pas un simple inconvénient. Microsoft le qualifie de risque business nécessitant une gouvernance et une sécurité urgentes.

La question n’est plus de savoir si votre organisation utilisera des agents IA. C’est de savoir si vous les gouvernerez avant qu’ils ne provoquent une faille impossible à contenir.

5 enseignements clés

  1. Les agents IA se déploient plus vite que les équipes de sécurité ne peuvent les détecter. Plus de 80 % des entreprises du Fortune 500 utilisent désormais des agents IA actifs créés avec des outils low-code et no-code. Le rapport Cyber Pulse de Microsoft alerte : ces agents « se déploient plus vite que certaines entreprises ne peuvent les voir », créant un manque de visibilité qualifié de risque business. Quand des systèmes autonomes peuvent raisonner, agir et accéder seuls aux ressources de l’entreprise, l’absence de gouvernance n’est pas une faille — c’est une porte ouverte.
  2. Une organisation sur trois considère l’accès non supervisé aux données par des agents IA comme une menace critique. Selon le rapport Data Security Landscape 2025 de Proofpoint, 32 % des organisations identifient l’accès non supervisé aux données par des agents IA comme une menace critique. Ces agents opèrent souvent comme des « superutilisateurs » très privilégiés, accédant à des données sensibles dans des environnements cloud et hybrides avec bien moins de supervision qu’un employé humain.
  3. Les agents IA peuvent être instrumentalisés via des instructions cachées — sans aucune interaction utilisateur. Trend Micro a démontré que des agents IA multimodaux peuvent être manipulés via des instructions cachées dans des images ou documents, entraînant l’exfiltration de données sensibles sans aucun clic de l’utilisateur. Des chercheurs sur arXiv ont construit une attaque de bout en bout où les instructions cachées d’une page de blog malveillante poussaient un agent basé sur RAG à extraire des secrets de sa base de connaissances et à les envoyer vers un serveur contrôlé par l’attaquant.
  4. 44 % des organisations manquent de supervision adéquate sur l’usage de l’IA générative. Proofpoint a constaté que 44 % des organisations reconnaissent ne pas avoir une supervision suffisante de l’usage de l’IA générative, y compris des outils et agents. La Cloud Security Alliance révèle un écart de sensibilisation important : 52 % des dirigeants déclarent connaître les technologies IA contre seulement 11 % des collaborateurs en première ligne — ceux qui utilisent ces outils au quotidien.
  5. Le manque de gouvernance est une bombe à retardement financière. Le coût moyen d’une violation de données atteint désormais 4,88 millions de dollars (IBM Cost of a Data Breach Report, 2024). Les amendes du règlement européen sur l’IA peuvent atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial. Les sanctions RGPD montent à 20 millions d’euros ou 4 % du chiffre d’affaires. Avec une hausse de 56,4 % des incidents de confidentialité liés à l’IA en un an (Stanford 2025 AI Index Report), les organisations sans gouvernance IA démontrable s’exposent à des risques financiers et juridiques croissants.

L’agentic workspace est là — et la plupart des organisations ignorent ce qui s’y passe

Le rapport Data Security Landscape 2025 de Proofpoint a introduit un terme qui résume parfaitement la situation actuelle : « agentic workspace ». Il décrit un environnement où des outils de productivité pilotés par l’IA et des agents autonomes traitent des données sensibles aux côtés des humains. La conclusion du rapport est sans détour : de nombreuses organisations « manquent de visibilité et de contrôles pour gouverner cet agentic workspace émergent ».

Les chiffres à l’appui sont parlants. Près de la moitié des répondants citent la dispersion des données dans les environnements cloud et hybrides comme une préoccupation majeure. Deux organisations sur cinq redoutent la perte de données via des outils d’IA générative publics ou d’entreprise. Plus d’un tiers s’inquiètent de l’utilisation de données sensibles pour l’entraînement de modèles IA. Et 32 % voient l’accès non supervisé aux données par des agents IA — souvent en mode « superutilisateur » — comme une menace critique.

Ce qui rend la situation particulièrement dangereuse, c’est l’écart entre perception et réalité. La Cloud Security Alliance a constaté que 52 % des dirigeants déclarent connaître les technologies IA, mais seulement 11 % des collaborateurs partagent ce sentiment. C’est un gouffre de gouvernance. Ceux qui prennent les décisions sur la politique IA surestiment souvent la préparation de leur organisation, tandis que ceux qui utilisent réellement les outils manquent de connaissances pour les utiliser en toute sécurité.

Parallèlement, 44 % des organisations reconnaissent ne pas avoir une supervision adéquate de l’usage de l’IA générative. Cela inclut les outils utilisés chaque jour par les collaborateurs et les agents de plus en plus intégrés aux workflows métiers.

Vous pensez que votre organisation est sécurisée. Mais pouvez-vous le prouver ?

Pour en savoir plus :

Comment les agents IA sont instrumentalisés : prompt injection et exfiltration de données

Si le manque de visibilité était le seul problème, ce serait gérable. Mais les agents IA ne créent pas qu’une exposition passive. Ils peuvent être activement instrumentalisés — et les recherches le prouvent, récemment et de façon alarmante.

Les travaux de Trend Micro sur les vulnérabilités des agents IA montrent que des agents multimodaux peuvent être manipulés via des instructions cachées dans des images ou documents. L’attaque ne nécessite aucune interaction utilisateur. Un document ou une image contenant des prompts dissimulés peut pousser un agent à exfiltrer des données sensibles — y compris des informations personnelles (noms, numéros de Sécurité sociale, coordonnées), des données financières, des informations médicales protégées, des secrets d’affaires, des identifiants d’authentification et des documents confidentiels téléchargés — sans que l’utilisateur ne s’en aperçoive.

La surface d’attaque s’étend au web. Trend Micro a montré que des agents capables d’analyser des pages web peuvent lire des prompts malveillants intégrés à des sites, qui leur ordonnent d’exfiltrer des données stockées en mémoire — comme des clés API ou des coordonnées — vers des destinations contrôlées par l’attaquant. Si le trafic sortant est autorisé, l’agent devient un pipeline de données à l’insu de l’utilisateur.

Des chercheurs publiant sur arXiv sont allés plus loin. Ils ont construit une attaque complète contre un agent IA basé sur la génération augmentée par récupération (RAG), qui utilise des outils pour interroger une base de connaissances interne contenant des secrets sensibles et récupérer du contenu web externe. Une page de blog malveillante contenait des instructions cachées en blanc sur blanc, invisibles pour l’utilisateur humain. Lorsque l’agent devait résumer la page, il ingérait ces instructions et les exécutait — extrayant le secret de sa base de connaissances, l’intégrant dans un paramètre d’URL, puis l’envoyant à un serveur contrôlé par l’attaquant via l’outil de recherche web prévu à cet effet.

La conclusion de l’article doit alerter tous les responsables sécurité : les agents LLM actuels dotés d’outils et de RAG présentent une « vulnérabilité fondamentale » aux attaques indirectes par prompt injection, et les mécanismes de sécurité intégrés ne suffisent pas sans couches défensives supplémentaires.

Ce n’est pas théorique. Ce sont des attaques démontrées contre le type d’architecture agent que les entreprises déploient aujourd’hui.

Trois vulnérabilités qui s’additionnent pour créer une crise

Le paysage des risques liés aux agents IA s’explique par trois vulnérabilités qui, combinées, exposent les entreprises à des risques inédits.

La première vulnérabilité est l’accès excessif aux données — la quantité de données auxquelles les agents peuvent accéder. Les agents IA ont besoin d’un large accès aux données pour fonctionner efficacement. Mais cet accès crée une surface d’exposition massive. En moyenne, les organisations comptent 15 000 comptes inactifs mais toujours actifs, avec plus de 31 000 autorisations obsolètes (Varonis 2025 State of Data Security Report), et chaque agent IA déployé ajoute une identité non humaine à cette surface d’attaque déjà tentaculaire. Les systèmes traditionnels de gestion des identités et des accès ont été conçus pour les humains, pas pour les machines. Ils manquent souvent de granularité pour appliquer le principe du moindre privilège à des systèmes autonomes capables de demander, traiter et transmettre des données à une vitesse inatteignable pour un utilisateur humain.

La deuxième vulnérabilité est l’usage incontrôlé des données — les types de données traitées par les agents et leur destination finale. Les études montrent que le plus grand groupe d’entreprises — 27 % — admet que plus de 30 % des informations envoyées à des outils IA contiennent des données privées, comme des numéros de Sécurité sociale, des dossiers médicaux, des informations de carte bancaire ou de la propriété intellectuelle protégée. 17 % supplémentaires n’ont aucune visibilité sur ce que partagent leurs employés. Une fois ces données intégrées à l’entraînement d’un modèle public, elles ne peuvent plus être récupérées, supprimées ni contrôlées. La contamination est permanente.

La troisième vulnérabilité est la manipulation des agents — leur exploitation via prompt injection, compétences malveillantes et attaques sur la supply chain. Les agents IA qui interagissent avec des services externes, des plugins et des réseaux d’agents sont vulnérables au même type d’attaques indirectes par prompt injection que celles démontrées par Trend Micro et les chercheurs d’arXiv. Une compétence IA compromise peut se propager à travers des réseaux d’agents en quelques heures. Des agents autonomes peuvent être manipulés pour exfiltrer des identifiants, accéder à des fichiers sensibles et générer des violations de conformité — à la vitesse des machines, bien plus rapidement que toute menace interne humaine.

Ces trois vulnérabilités ne sont pas isolées. Elles s’additionnent. Un agent avec un accès excessif, traitant des données non contrôlées et vulnérable à la manipulation, n’est pas seulement un risque — c’est une brèche annoncée.

Le Shadow AI aggrave tout

À ces vulnérabilités structurelles s’ajoute le problème du shadow AI. Près de la moitié des utilisateurs d’IA générative s’appuient sur des applications personnelles non approuvées, totalement hors de portée de l’organisation. Les employés téléchargent régulièrement du code source, des données réglementées et de la propriété intellectuelle sur ces outils pour résumer, déboguer ou générer du contenu — souvent sans savoir que ces données pourront servir à entraîner des modèles publics.

L’ampleur est impressionnante. Une organisation subit en moyenne 223 violations de politiques de données liées à l’IA par mois, le code source représentant 42 % des incidents et les données réglementées 32 % (Netskope Cloud and Threat Report 2026). Les incidents de confidentialité liés à l’IA ont augmenté de 56,4 % en un an (Stanford 2025 AI Index Report). Et 98 % des entreprises ont des employés utilisant des applications non approuvées, avec une moyenne de 1 200 applications non officielles par organisation (Varonis 2025 State of Data Security Report).

Seules 17 % des organisations disposent de contrôles techniques bloquant l’accès aux outils IA publics associés à une analyse DLP. 40 % s’appuient uniquement sur la formation et les audits. Et 13 % n’ont aucune règle en place.

Bloquer totalement l’IA n’est pas la solution — toutes les organisations qui ont essayé le savent. Les employés contournent les restrictions. Ils utilisent des comptes personnels. Ils téléchargent des données sur des outils gratuits depuis leur téléphone. Résultat : l’usage de l’IA ne diminue pas. Il devient invisible — et donc bien plus dangereux.

L’écart de gouvernance est plus large que ce que les organisations admettent

Malgré ces risques croissants, la plupart des organisations ne sont pas prêtes. Seules 12 % disposent de structures dédiées à la gouvernance de l’IA, tandis que 55 % n’ont aucun cadre en place. Seules 9 % atteignent le niveau de maturité de gouvernance IA jugé « prêt » par les analystes, alors que 23 % se disent « très préparées » — un écart de confiance de 14 points qui constitue en soi un risque.

Par ailleurs, 86 % des organisations n’ont aucune visibilité sur les flux de données IA, et 45 % citent la pression à déployer rapidement comme principal obstacle à la gouvernance. Ce chiffre grimpe à 56 % chez les responsables techniques. Résultat : un schéma qui se répète dans tous les secteurs — des organisations déploient des agents IA en production alors que leur infrastructure de gouvernance, de sécurité et de conformité est encore pensée pour un monde où seuls les humains accédaient aux données sensibles.

Le contexte réglementaire, lui, n’attend pas que les organisations rattrapent leur retard. Cinquante-neuf nouvelles réglementations sur la protection des données ont été adoptées rien que l’an dernier. Le règlement européen sur l’IA prévoit des amendes allant jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les violations à haut risque. Les sanctions RGPD peuvent atteindre 20 millions d’euros ou 4 % du chiffre d’affaires. D’autres obligations sectorielles (HIPAA, SOX, GLBA, CMMC) viennent s’ajouter et s’appliquent directement à la façon dont les agents IA accèdent, traitent et transmettent les données sensibles.

Zero Trust pour les agents IA : le modèle de sécurité adapté

Le rapport Cyber Pulse de Microsoft présente la solution dans des termes familiers aux professionnels de la sécurité : Zero Trust. Le rapport applique les mêmes principes Zero Trust aux agents que ceux appliqués aux utilisateurs humains — accès au moindre privilège, vérification explicite de « qui ou quoi » demande l’accès, et présomption de compromission comme principe de conception.

Ce cadre est logique. Les agents IA sont des identités. Ils s’authentifient, demandent des accès, effectuent des actions. Le fait qu’ils ne soient pas humains ne les rend pas moins dangereux — au contraire, ils le sont davantage, car ils opèrent à des vitesses et des échelles que les contrôles de sécurité centrés sur l’humain ne peuvent gérer.

Appliquer le Zero Trust à l’agentic workspace signifie que chaque agent IA doit être traité comme une identité distincte nécessitant authentification et autorisation. L’accès doit être limité aux autorisations strictement nécessaires à chaque tâche. Chaque interaction avec les données doit être enregistrée dans un journal d’audit immuable. La détection d’anomalies doit fonctionner à la vitesse des machines pour suivre le rythme des agents. Et les flux de données sortants doivent être gouvernés pour empêcher l’exfiltration — qu’elle provienne d’un agent compromis, d’un prompt manipulé ou d’un workflow mal configuré.

Les recherches de Trend Micro vont dans le même sens, recommandant des contrôles d’accès stricts, un filtrage avancé du contenu et une surveillance en temps réel pour limiter les fuites de données et les actions non autorisées. Les chercheurs d’arXiv aboutissent à la même conclusion : les fonctions de sécurité intégrées ne suffisent pas. Des couches défensives supplémentaires sont indispensables.

À quoi ressemble la bonne infrastructure ?

Sécuriser l’agentic workspace exige une infrastructure opérant au niveau des données, et non seulement du réseau. La sécurité réseau — qui inspecte le trafic via des proxies — peut détecter qu’un employé a visité une application IA. Mais elle ne peut pas gouverner les données précises auxquelles un agent IA accède dans les référentiels de l’entreprise, ni appliquer des politiques granulaires sur l’utilisation de ces données, ni fournir la traçabilité au niveau du contenu exigée par les régulateurs.

L’infrastructure nécessaire pour combler le déficit de gouvernance IA présente plusieurs caractéristiques essentielles. Elle doit proposer une passerelle sécurisée entre les systèmes IA et les données de l’entreprise, où les principes Zero Trust s’appliquent à chaque interaction. Elle doit isoler l’exécution des agents IA pour qu’un plugin ou une compétence compromis ne puisse accéder qu’aux ressources autorisées. Elle doit étendre les cadres de gouvernance existants — contrôle d’accès basé sur les rôles et les attributs — à toutes les interactions IA, y compris celles initiées par des agents autonomes. Elle doit consigner chaque interaction IA-données dans un journal d’audit immuable avec identité, horodatage, données consultées et système IA utilisé. Et elle doit détecter les anomalies à la vitesse des machines, en signalant les comportements suspects comme un agent demandant soudainement de gros volumes de données inhabituelles ou tentant de transmettre des données vers des destinations anormales.

Le Réseau de données privé Kiteworks a été conçu pour relever ce défi. Sa passerelle de données IA crée un pont Zero Trust entre les systèmes IA et les référentiels de données de l’entreprise, garantissant que les données ne quittent jamais l’environnement protégé. Son serveur MCP sécurisé isole l’exécution des agents IA grâce à l’authentification OAuth 2.0, à la détection d’anomalies et à l’application du cadre de gouvernance. Sa gouvernance unifiée multi-canal couvre le partage de fichiers, le transfert sécurisé de fichiers, l’e-mail, les formulaires web, les API et les interactions IA sous un moteur de règles unique avec un journal d’audit immuable.

Pour les organisations réglementées, la flexibilité de déploiement est essentielle. Kiteworks prend en charge les environnements sur site, cloud privé, hybride et FedRAMP High — avec des contrôles de conformité préconfigurés pour HIPAA, SOX, RGPD, CCPA, CMMC, NIST CSF, ISO 27001 et le règlement européen sur l’IA.

Attendre coûte des brèches, des amendes et des dommages irréversibles

L’argument financier en faveur de la gouvernance des données IA est sans équivoque. Le coût moyen d’une violation de données est de 4,88 millions de dollars. Dans la santé, ce chiffre atteint 10,93 millions (IBM Cost of a Data Breach Report, 2024). Les amendes du règlement européen sur l’IA pour les violations à haut risque peuvent atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial. Les sanctions RGPD montent à 20 millions d’euros ou 4 %. Les pertes liées aux attaques sur la supply chain logicielle sont estimées à 60 milliards de dollars pour l’industrie.

Mais le coût le plus grave est peut-être le plus difficile à mesurer : la propriété intellectuelle définitivement intégrée dans les jeux d’entraînement de modèles IA publics. Une fois que des données propriétaires sont absorbées par un modèle public, il est impossible de les récupérer, de les supprimer ou de les contrôler. Le préjudice concurrentiel est irréversible.

Les organisations qui mettent en place dès maintenant une gouvernance IA au niveau des données ne font pas que réduire le risque. Elles gagnent un avantage concurrentiel — la capacité d’adopter l’IA plus vite, avec plus de confiance, et avec la preuve de conformité exigée par les régulateurs, auditeurs et clients.

Trois actions à mener dès maintenant

Premièrement, obtenez de la visibilité sur ce qui se passe déjà. On ne peut gouverner que ce que l’on voit. Déployez une surveillance qui capture les interactions IA-données sur tous les canaux — pas seulement le trafic web, mais aussi le partage de fichiers, l’e-mail, les API et les workflows d’agents. Identifiez où circulent les données sensibles vers les systèmes IA, et si ces flux sont autorisés, tracés et conformes. Si 44 % des organisations admettent manquer de supervision, partez du principe que la vôtre en fait peut-être partie tant que vous ne pouvez pas prouver le contraire.

Deuxièmement, appliquez le Zero Trust à chaque agent IA. Considérez chaque agent IA comme une identité non humaine nécessitant la même authentification, autorisation et contrôles d’accès qu’un utilisateur humain — avec les protections supplémentaires qu’impose la vitesse des machines. Appliquez le principe du moindre privilège. Isolez l’exécution des agents. Surveillez les comportements anormaux. Veillez à ce qu’aucun agent n’accède à des données au-delà de ce que requiert sa tâche précise.

Troisièmement, autorisez l’IA avec la gouvernance intégrée — ne la bloquez pas. Les organisations qui tentent d’interdire l’IA perdront ce combat. Les employés trouveront des solutions de contournement, et le shadow AI proliférera. La solution pérenne est une infrastructure qui permet aux collaborateurs d’utiliser l’IA de façon productive tout en garantissant que les données sensibles ne quittent jamais l’environnement protégé. Une gouvernance automatique, en arrière-plan, sans nuire à la productivité, est le seul modèle qui passe à l’échelle.

La révolution IA en entreprise n’est pas à venir. Elle est déjà là. La question est de savoir si votre organisation la gouvernera — ou subira ses conséquences.

Pour découvrir comment Kiteworks peut vous aider, réservez votre démo sans attendre !

Foire aux questions

Les chatbots IA traditionnels répondent à des requêtes dans une interface limitée et n’agissent pas de façon autonome. Les agents IA sont fondamentalement différents : ils raisonnent, planifient et agissent de façon autonome dans les systèmes de l’entreprise, interrogent des bases de données, appellent des API, exécutent des processus complexes et transmettent des données avec un minimum de supervision humaine. Cette autonomie crée le risque de sécurité. Un agent ne se contente pas de répondre à une question ; il agit comme une identité non humaine privilégiée, avec un accès à des données sensibles à une vitesse et une échelle que les contrôles de sécurité conçus pour l’humain ne peuvent gérer. En cas de compromission ou de manipulation, un agent peut exfiltrer des milliers d’enregistrements avant qu’une alerte ne soit déclenchée.

Le prompt injection indirect consiste à intégrer des instructions cachées dans le contenu traité par un agent IA — document, image ou page web — qui prennent le pas sur la programmation initiale de l’agent. Lorsque l’agent traite ce contenu, il exécute les instructions de l’attaquant. Trend Micro a démontré que cela entraîne une exfiltration de données sans aucune interaction utilisateur. Les chercheurs d’arXiv ont mis au point une attaque qui a poussé un agent basé sur RAG à extraire des secrets internes et à les transmettre à un serveur de l’attaquant. Les outils de sécurité traditionnels — DLP, pare-feu, protection des endpoints — ne peuvent pas stopper cela, car l’exfiltration s’effectue via des canaux légitimes et autorisés que l’agent est censé utiliser.

Le shadow AI désigne l’utilisation par les employés d’outils IA non approuvés — comptes personnels, produits gratuits, extensions de navigateur — sans que l’organisation en ait connaissance ou contrôle. Les études montrent que 98 % des entreprises ont des employés utilisant des applications non approuvées, et qu’une organisation subit en moyenne 223 violations de politiques de données liées à l’IA par mois. L’exposition est permanente : lorsque des collaborateurs téléchargent du code source, des dossiers médicaux, des données financières ou de la propriété intellectuelle sur un modèle IA public, ces données peuvent être intégrées à l’entraînement du modèle. Il est alors impossible de les récupérer, de les supprimer ou de les contrôler. Bloquer totalement l’IA ne règle pas le problème — cela pousse l’usage dans la clandestinité, créant une exposition invisible au lieu d’une exposition maîtrisée.

Le Zero Trust appliqué aux agents IA suit les mêmes principes que pour les utilisateurs humains, avec des protections supplémentaires adaptées à la vitesse des machines. Chaque agent est traité comme une identité distincte nécessitant une authentification et une autorisation explicites. L’accès est limité aux données strictement nécessaires pour chaque tâche — jamais un accès large à tous les référentiels. Chaque interaction avec les données est enregistrée dans un journal d’audit immuable. La détection d’anomalies fonctionne à la vitesse des machines pour signaler les comportements inhabituels, comme des demandes massives de données ou des transmissions vers des destinations inattendues. Les flux de données sortants sont gouvernés pour qu’un agent compromis ne puisse pas exfiltrer de données via des canaux autorisés. Les contrôles d’accès basés sur les rôles et les attributs doivent s’étendre explicitement aux identités non humaines — la plupart des systèmes IAM n’ont pas été conçus pour les agents.

Plusieurs grands cadres réglementaires croisent désormais directement la gouvernance des agents IA. Le règlement européen sur l’IA prévoit des amendes jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les violations à haut risque, et impose une supervision humaine documentée et la traçabilité des données. Le RGPD exige une base légale et des garanties appropriées pour tout traitement de données personnelles, y compris par des agents automatisés. HIPAA impose des contrôles d’accès et des journaux d’audit pour tout système traitant des informations médicales protégées. CMMC requiert des solutions FedRAMP pour les sous-traitants fédéraux gérant des informations non classifiées contrôlées. GLBA impose des mesures de protection sur l’accès aux données financières. Avec 59 nouvelles réglementations sur la protection des données adoptées l’an dernier, la gouvernance IA est passée du statut de bonne pratique à celui d’exigence réglementaire dans tous les secteurs.

Ressources complémentaires

  • Article de blog Zero Trust Architecture : Ne jamais faire confiance, toujours vérifier
  • Vidéo Microsoft GCC High : Les inconvénients qui poussent les sous-traitants de la défense vers des solutions plus intelligentes
  • Article de blog Comment sécuriser les données classifiées après détection par DSPM
  • Article de blog Instaurer la confiance dans l’IA générative grâce à une approche Zero Trust
  • Vidéo Guide ultime pour le stockage sécurisé des données sensibles à destination des responsables IT

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks