
Vos collaborateurs utilisent déjà l’IA — avec les données confidentielles de votre entreprise
Alors que les dirigeants débattent de la stratégie IA en salle de réunion, 93 % de leurs collaborateurs ont déjà tranché pour eux—et partagent des données confidentielles via des outils IA non approuvés. Ce n’est pas un problème à venir. C’est une réalité actuelle dans les organisations nord-américaines, créant des angles morts que même les responsables IT les plus vigilants peinent à détecter. Le choc entre l’adoption de l’IA par les employés et la préparation des entreprises forme une tempête parfaite de risques liés à la sécurité des données, de violations de conformité et de perte de confiance client. La question n’est pas de savoir si vos équipes vont utiliser l’IA—mais si votre organisation sera prête lorsqu’elles le feront.
Vous pensez que votre organisation est sécurisée. Mais pouvez-vous le prouver ?
L’ombre de l’IA plane déjà
Une étude récente de ManageEngine révèle l’ampleur réelle de l’utilisation non autorisée de l’IA en entreprise, dressant un tableau inquiétant pour tout dirigeant. 70 % des décideurs IT ont identifié des outils IA non autorisés dans leur organisation, et 60 % constatent une hausse de ces usages par rapport à l’an passé. Ces chiffres dépassent la simple violation de politique interne—ils illustrent un changement profond dans la façon de travailler, les collaborateurs prenant des décisions technologiques qui relevaient traditionnellement du service IT.
La rapidité de l’adoption a totalement pris de court les équipes IT, générant des défis opérationnels auxquels la plupart des organisations n’étaient pas préparées. 85 % déclarent que les employés adoptent les outils IA plus vite que leurs équipes ne peuvent les évaluer en matière de sécurité et de conformité, creusant un écart grandissant entre ce qui est approuvé et ce qui est utilisé. Cette accélération ne ralentit pas—elle s’intensifie à mesure que les outils IA deviennent plus accessibles et que les collaborateurs trouvent de nouveaux moyens de les intégrer à leur quotidien. Résultat : un paysage technologique qui échappe au contrôle officiel, avec des processus critiques de plus en plus dépendants d’outils non validés pour la sécurité, la conformité ou la protection des données.
Vos données confidentielles circulent déjà
Le constat le plus alarmant concerne les pratiques de gestion des données qui feraient perdre le sommeil à n’importe quel responsable de la confidentialité. 93 % des employés reconnaissent saisir des informations dans des outils IA sans validation de l’entreprise, et il ne s’agit pas que d’astuces pour gagner en productivité—cela inclut des informations sensibles qui exposent l’organisation à de lourdes responsabilités. L’ampleur de l’exposition va bien au-delà de ce que la plupart des dirigeants imaginent, touchant aussi bien les dossiers clients que les documents stratégiques.
Le détail des chiffres révèle l’ampleur du problème : 32 % ont saisi des données confidentielles de clients sur des plateformes IA non autorisées, 37 % ont partagé des données internes sensibles via des outils non validés, et 53 % utilisent des appareils personnels pour des tâches IA professionnelles, créant des angles morts que la surveillance traditionnelle ne peut détecter. Chacune de ces pratiques expose à une fuite de données, une violation réglementaire ou une fuite d’informations stratégiques, alors que la plupart des employés ignorent les risques qu’ils engendrent. L’utilisation d’appareils personnels est particulièrement préoccupante car elle place les données sensibles hors du périmètre de sécurité de l’entreprise, créant des points d’exposition impossibles à surveiller, et encore moins à protéger, par les équipes IT.
Points clés à retenir
-
L’IA de l’ombre s’est déjà généralisée dans votre organisation
93 % des employés saisissent des données de l’entreprise dans des outils IA non autorisés, 32 % partagent des informations confidentielles de clients et 37 % exposent des données internes sensibles. Ce n’est pas un risque futur—c’est déjà une réalité dans 70 % des organisations, générant une exposition des données que la plupart des équipes IT ne peuvent même pas détecter.
-
La plupart des entreprises naviguent à vue sur la gouvernance IA
Seules 23 % des entreprises se sentent prêtes à gérer la gouvernance IA, et seulement 20 % ont mis en place de vraies stratégies de gouvernance pour les outils IA. Les 77 % restants improvisent leur gestion du risque IA à mesure que les employés adoptent les outils plus vite que l’IT ne peut les évaluer.
-
La sécurité traditionnelle ne suffit pas face aux menaces IA
L’IA ouvre de nouvelles portes aux attaques, comme les injections de prompts ou les fuites de données, que les mesures de sécurité classiques ne peuvent pas gérer. Les organisations doivent mettre en place des protections spécifiques à l’IA : blindage des prompts, filtrage du contenu et traçabilité complète pour gérer efficacement les risques.
-
La confiance client devient votre avantage concurrentiel
Selon une étude Harvard Business Review, l’engagement client avec l’IA dépend du sentiment d’être « respecté, protégé et compris »—des facteurs directement liés à la qualité de la gouvernance. Les organisations qui démontrent une gestion responsable de l’IA se démarqueront de celles qui peinent à maîtriser les risques.
-
Une infrastructure proactive pour les données IA est essentielle
Le vrai choix n’est pas entre l’adoption de l’IA et la sécurité des données—mais entre une mise en œuvre contrôlée et le chaos persistant de l’IA de l’ombre. Les organisations ont besoin de passerelles de données IA et de cadres de gouvernance qui permettent d’innover en toute sécurité, tout en évitant les risques d’exposition déjà subis par la majorité des entreprises.
Personne n’a la même perception du risque
Le plus préoccupant reste le fossé énorme entre la perception du risque selon les niveaux hiérarchiques, créant une situation où ceux qui créent les risques ne les comprennent pas, et ceux qui les comprennent ne peuvent pas les contrôler. 63 % des responsables IT identifient correctement la fuite de données comme principal risque lié à l’IA de l’ombre, preuve que ceux qui gèrent la sécurité mesurent l’enjeu. À l’inverse, 91 % des employés estiment que l’IA de l’ombre présente peu de risques ou que les gains de productivité l’emportent, générant un dangereux écart de perception qui fragilise l’organisation.
Ce décalage crée des conditions à risque où les utilisateurs agissent sans précaution adéquate, tandis que les équipes IT peinent à mettre en place des mesures de protection pour des outils dont elles ignorent l’existence. Ce n’est pas qu’une question de tolérance au risque—c’est une différence fondamentale dans la compréhension du fonctionnement des outils IA, du devenir des données saisies et des potentielles compromissions ou usages malveillants. Les employés voient les gains immédiats sans visibilité sur le traitement des données en arrière-plan, alors que les équipes IT comprennent les enjeux d’infrastructure mais manquent d’informations sur les usages réels.
La plupart des entreprises ne sont pas prêtes
Les données sectorielles de Deloitte et Gartner expliquent pourquoi les organisations peinent à gérer efficacement les risques liés à l’IA, révélant un manque de maturité en gouvernance qui les expose sur de nombreux plans. Seules 23 % des entreprises se sentent vraiment prêtes à gérer la gouvernance IA, et seulement 20 % ont mis en place une stratégie de gouvernance pour l’IA générative. Les 65 % restants en sont encore aux premiers stades de planification, ce qui signifie que la grande majorité navigue à vue alors que les employés adoptent des outils IA de plus en plus sophistiqués.
Ce manque de préparation expose les organisations non seulement à des risques de conformité, mais aussi à la limitation de leur capacité à adopter des outils IA bénéfiques ou à des atteintes à leur crédibilité en cas d’échec. Les entreprises qui se sentent démunies ne manquent pas forcément de compétences techniques—beaucoup disposent de services IT avancés et de solides programmes de sécurité pour les technologies classiques. Elles sont confrontées à des défis de gouvernance qui exigent de nouveaux cadres, de nouvelles méthodes d’évaluation des risques et une nouvelle façon d’envisager la supervision technologique dans un environnement où les outils évoluent sans cesse.
Avoir des politiques ne veut pas dire avoir le contrôle
L’écart ne se situe pas seulement au niveau des politiques—mais de leur application, et les données révèlent un vrai décalage entre la création de politiques et leur mise en œuvre concrète. 91 % des organisations ont adopté des politiques IA, mais seulement 54 % ont mis en place des cadres de gouvernance avec surveillance active des usages non autorisés. Beaucoup se contentent donc de cocher la case politique sans développer les moyens opérationnels pour la rendre efficace au quotidien.
Les organisations incapables de surveiller la conformité ne peuvent pas gérer les risques qu’elles prétendent adresser, créant un faux sentiment de sécurité qui peut s’avérer pire que de reconnaître le problème. Sans visibilité sur les usages réels de l’IA, la gouvernance devient un exercice purement administratif, sans impact réel sur la gestion des risques. Le défi de la surveillance est d’autant plus complexe que les outils IA s’intègrent souvent aux workflows existants, rendant leur détection difficile, et que les employés ne réalisent pas toujours qu’ils utilisent des fonctionnalités IA intégrées à des applications familières.
Quatre façons dont l’IA met votre entreprise en danger
La sécurité se complique
Les systèmes IA ouvrent la voie à de nouveaux vecteurs d’attaque que les mesures de sécurité classiques ne peuvent pas traiter, imposant des approches radicalement différentes pour la détection et la prévention des menaces. Cela inclut des tentatives de contournement des restrictions de sécurité (jailbreaking), des injections de prompts qui manipulent le comportement de l’IA, des hallucinations générant de fausses informations, et des fuites de données exposant des informations personnelles identifiables dans les résultats IA. Chacun de ces scénarios représente un défi de sécurité spécifique exploitant les particularités du traitement et de la génération d’informations par l’IA.
Contrairement aux vulnérabilités logicielles classiques, souvent liées à des failles de code ou de configuration, les menaces propres à l’IA ciblent généralement les modèles eux-mêmes ou les données traitées. Les attaques par injection de prompt, par exemple, peuvent pousser les systèmes IA à ignorer leur programmation et à suivre les instructions d’un attaquant. Ces attaques ne nécessitent pas de compétences techniques avancées—elles peuvent souvent être menées via de simples saisies de texte apparemment anodines mais contenant des instructions cachées. Leur sophistication progresse rapidement, et les outils de sécurité traditionnels ne les détectent pas car elles opèrent au niveau sémantique, non technique.
Les lois sur la vie privée s’appliquent toujours
L’exposition non autorisée de données sur les plateformes IA crée des risques immédiats en matière de vie privée que de nombreuses organisations sous-estiment, alors que la réglementation évolue et que les contrôles se renforcent. Lorsque les employés saisissent des informations sensibles dans des outils non validés, l’organisation perd le contrôle sur la localisation, le traitement et la conservation des données, risquant de violer des lois sur la protection des données auxquelles elle est tenue. Cela devient particulièrement problématique avec les services IA qui utilisent les données saisies pour l’entraînement ou l’amélioration, intégrant ainsi des informations d’entreprise à des systèmes accessibles à d’autres clients.
La contamination des données entre locataires représente un autre risque de confidentialité propre à l’IA, mal compris par la plupart des organisations. Sans contrôles d’isolation adaptés, des informations sensibles d’une entreprise peuvent influencer les réponses IA fournies à d’autres, générant des cauchemars de conformité et des fuites stratégiques qui peuvent passer inaperçues pendant des mois, voire des années. La dimension internationale de nombreux services IA pose aussi des défis de juridiction, les données pouvant être traitées dans des pays aux normes de confidentialité différentes de celles du pays d’origine de l’entreprise.
La conformité devient plus complexe
Les cadres réglementaires comme le RGPD, HIPAA et les lois locales sur la vie privée n’ont pas été conçus pour l’IA, mais s’appliquent tout de même au traitement des données personnelles par l’IA, générant des difficultés d’interprétation que la plupart des organisations tentent encore de résoudre. Les entreprises s’exposent à des manquements pour absence de consentement adéquat, violations des politiques de conservation des données et exigences régionales parfois incompatibles avec le fonctionnement par défaut des services IA. Le problème est aggravé par le fait que de nombreux outils IA ne proposent pas les contrôles fins exigés par la conformité.
La difficulté s’accentue dans les secteurs réglementés où l’usage de l’IA peut déclencher des obligations supplémentaires non anticipées. Les établissements de santé, par exemple, peuvent découvrir que des outils IA utiles pour l’administratif relèvent en fait du HIPAA dès qu’ils traitent des informations patient. Les sociétés financières peuvent réaliser que des outils IA utilisés pour le service client créent de nouvelles obligations bancaires, même si ces outils n’ont pas été conçus pour la finance.
La confiance client en prend un coup
L’impact sur la confiance client lié à une mauvaise gestion des données va bien au-delà des sanctions immédiates, générant des conséquences durables difficiles à quantifier mais désastreuses pour la compétitivité. Une atteinte à la réputation liée à l’IA peut entraîner un désavantage concurrentiel persistant, même après résolution des problèmes techniques. Selon une étude de la Harvard Business Review, la volonté des clients d’utiliser des services IA dépend du sentiment d’être respecté, protégé et compris—des facteurs directement remis en cause si l’organisation ne peut démontrer la maîtrise de ses déploiements IA.
Les organisations qui ne gèrent pas efficacement les risques IA s’exposent non seulement à des sanctions réglementaires, mais aussi à la fuite de clients vers des concurrents plus fiables et mieux gouvernés. Dans un contexte où les clients sont de plus en plus informés sur l’IA et sensibles à la protection des données, la capacité à démontrer une gestion responsable de l’IA devient un avantage concurrentiel, et non plus une simple exigence de conformité.
Ce qui fonctionne vraiment
Réunir tout le monde autour de la table
Une gouvernance IA efficace exige une coordination transversale, réunissant les points de vue techniques, juridiques, business et éthiques dans la prise de décision. Les organisations leaders créent des groupes de travail sur les risques IA, rassemblant IT, juridique, conformité et métiers, pour croiser les expertises et piloter la stratégie IA et la gestion des risques. Des comités de gouvernance au niveau direction, comme le comité exécutif de gouvernance IA de Zendesk coprésidé par leur Chief Legal Officer et Chief Trust & Security Officer, garantissent l’alignement des politiques IA avec les valeurs de l’entreprise et les exigences réglementaires, tout en maintenant la responsabilité au plus haut niveau.
Des processus d’évaluation des menaces en temps réel permettent d’analyser rapidement les nouveaux outils IA et risques émergents, au lieu de courir après l’adoption par les employés. Ces processus doivent être rapides et pragmatiques—si la validation prend plus de temps que la patience des utilisateurs, l’IA de l’ombre continuera malgré les politiques. Les approches les plus efficaces allient évaluation rigoureuse des risques et reconnaissance de la rapidité d’évolution de l’IA, sachant que les besoins métiers ne peuvent pas toujours attendre la solution parfaite.
Renforcer les contrôles techniques
La protection des données exige plusieurs couches défensives, chacune ciblant des risques IA spécifiques tout en s’intégrant à l’infrastructure de sécurité existante. Le blindage des prompts et le filtrage du contenu bloquent les entrées malveillantes vers les systèmes IA, tandis que le masquage des données et le chiffrement limitent l’exposition des informations sensibles, même lorsqu’elles sont traitées par des outils IA. Les systèmes de génération augmentée par la recherche (Retrieval-Augmented Generation) ancrent les réponses IA dans des sources validées plutôt que de laisser libre cours à la génération, réduisant le risque d’hallucinations et garantissant la conformité aux connaissances et politiques de l’organisation.
La traçabilité complète offre une visibilité sur les processus décisionnels de l’IA, permettant à l’organisation d’expliquer et de justifier le comportement de l’IA auprès des régulateurs, auditeurs ou clients. Ces contrôles techniques doivent être pensés pour l’usage—des systèmes trop restrictifs pousseront les utilisateurs vers l’IA de l’ombre, sapant l’objectif de gouvernance. L’enjeu : rendre les outils IA approuvés plus attractifs et performants que les alternatives non autorisées.
Changer la perception de l’IA
Les contrôles techniques ne suffisent pas à résoudre les défis de gouvernance liés aux comportements humains : il faut investir dans la sensibilisation et la culture pour aider les collaborateurs à comprendre à la fois les bénéfices et les risques des outils IA. Les programmes de sensibilisation permettent aux équipes de mieux appréhender les risques liés à l’IA et de faire des choix éclairés sur les outils et le partage des données, mais ils doivent dépasser la simple communication de politique pour offrir des conseils concrets adaptés aux situations réelles. Les programmes efficaces expliquent non seulement ce qu’il faut faire, mais aussi pourquoi ces restrictions existent et comment elles protègent l’organisation et ses collaborateurs.
Une communication transparente sur les politiques garantit que les employés savent ce qui est approuvé et pourquoi, réduisant le risque que des collaborateurs bien intentionnés créent des failles en cherchant à être plus efficaces. L’intégration des outils IA validés dans les workflows standards diminue la tentation de recourir à des alternatives non autorisées, en répondant aux besoins métiers via des canaux officiels. Les démarches les plus réussies considèrent les employés comme des partenaires de la gestion des risques, et non comme des menaces à contrôler.
La confiance devient un avantage
Les organisations qui relèvent les défis de la gouvernance IA se positionnent pour déployer l’IA à grande échelle en toute confiance, tandis que leurs concurrents restent paralysés par la gestion des risques, créant un avantage compétitif qui se renforce avec le temps. La confiance client devient un levier stratégique, et non plus une simple case à cocher, surtout à mesure que l’IA se généralise dans les applications orientées client et que les clients deviennent plus exigeants dans leur évaluation des déploiements IA. Les entreprises dotées de systèmes IA transparents et explicables peuvent déployer des fonctions avancées côté client tout en maintenant la confiance nécessaire pour élargir les usages.
Les organisations qui réussissent ce pari avancent plus vite et lancent des projets IA plus ambitieux, car elles disposent de l’infrastructure de gouvernance pour gérer les risques. À l’inverse, les concurrents sans gouvernance adéquate avanceront lentement par crainte des risques, ou fonceront et subiront des conséquences qui les pénaliseront lourdement.
Trois actions à mener dès maintenant
Évaluez la réalité du terrain en menant des enquêtes approfondies sur les usages réels de l’IA par les employés par rapport aux outils approuvés. Comprendre la situation actuelle pose les bases pour améliorer la gouvernance et identifier les zones de risque immédiates. Cette évaluation doit être honnête et non punitive—les employés ne donneront pas d’informations fiables s’ils craignent des sanctions pour leurs pratiques actuelles.
Mettez de l’ordre en interne en bâtissant des cadres solides avant d’élargir l’adoption de l’IA. Les organisations qui se précipitent sans gouvernance accumulent une dette technique coûteuse à corriger, et s’exposent à des conséquences plus graves lorsque les problèmes surviennent. Investir dans l’infrastructure de gouvernance permet d’accélérer et de sécuriser l’adoption de l’IA une fois les fondations posées.
Rendez tout visible en donnant aux clients et aux collaborateurs de la transparence sur les processus décisionnels de l’IA. L’IA explicable n’est plus seulement une bonne pratique—c’est désormais une exigence concurrentielle à mesure que la culture IA progresse et que les parties prenantes exigent de la clarté sur l’impact des systèmes automatisés. Les organisations qui intègrent la transparence dès le départ dans leurs déploiements IA maintiendront plus facilement la confiance et la conformité face à l’évolution réglementaire.
La révolution IA est en marche, avec ou sans gouvernance adaptée. Les organisations qui réussiront seront celles qui traitent les menaces de sécurité tout en faisant de la gouvernance IA un levier stratégique de création de valeur, et non une simple contrainte réglementaire à gérer.
Reprendre la main sur votre avenir IA
Les chiffres sont clairs : l’IA de l’ombre ne disparaîtra pas, et espérer que les employés arrêtent d’utiliser des outils non autorisés n’est pas une stratégie. Les organisations ont besoin d’une infrastructure permettant d’adopter l’IA en toute sécurité, tout en évitant les risques d’exposition des données qui touchent déjà la majorité des entreprises. C’est là que les passerelles de données IA deviennent essentielles—elles font le lien entre innovation IA et protection des données, dont la plupart des organisations ont cruellement besoin.
Kiteworks AI Data Gateway : innover en IA en toute sécurité, sans compromis
Kiteworks répond au défi majeur des entreprises : exploiter la puissance de l’IA tout en garantissant la sécurité des données et la conformité réglementaire. Notre AI Data Gateway propose une solution qui permet aux organisations de libérer le potentiel de l’IA tout en maintenant une protection stricte des données.
Fonctions clés pour protéger les données privées :
Zero-Trust AI Data Access applique les principes du zero trust pour empêcher tout accès non autorisé, créant un canal sécurisé entre les systèmes IA et les référentiels de données de l’entreprise. Le chiffrement de bout en bout des données garantit que toutes les données transitant par l’AI Data Gateway sont chiffrées au repos et en transit, les protégeant contre tout accès non autorisé. La traçabilité en temps réel offre une visibilité complète sur les utilisateurs et systèmes ayant accédé à chaque jeu de données, avec des journaux d’audit détaillés pour chaque interaction. Une gouvernance et une conformité renforcées appliquent automatiquement des règles strictes de gouvernance et assurent la conformité au RGPD, à HIPAA et aux lois américaines sur la protection des données.
Différenciateurs clés :
Le support sécurisé du RAG permet aux systèmes IA d’accéder en toute sécurité aux données d’entreprise pour la génération augmentée par la recherche, améliorant la précision des modèles sans augmenter le risque de fuite. L’intégration transparente via des API conviviales pour les développeurs facilite l’intégration à l’infrastructure IA existante, réduisant le temps et la complexité de déploiement. La détection d’anomalies dopée à l’IA repère rapidement les transferts de données suspects et alerte les équipes sécurité en cas de tentative d’exfiltration. L’appliance virtuelle durcie réduit la surface d’attaque grâce à plusieurs couches de protection—même des vulnérabilités comme Log4Shell voient leur risque passer de critique à modéré.
Le vrai choix n’est pas entre l’adoption de l’IA et la sécurité des données—mais entre une mise en œuvre IA contrôlée et sécurisée, et le chaos persistant de l’IA de l’ombre. Les organisations qui investissent aujourd’hui dans une infrastructure de données IA adaptée prendront une longueur d’avance sur les concurrents encore paralysés par la gouvernance demain.
Foire aux questions
L’IA de l’ombre désigne l’utilisation par les employés d’outils et d’applications IA non autorisés, sans validation ou supervision IT, souvent en y saisissant des données de l’entreprise. Les entreprises doivent s’en inquiéter sérieusement : 93 % des employés reconnaissent partager des informations via des outils IA non validés, dont 32 % ont saisi des données confidentielles de clients et 37 % des informations internes sensibles. Cela génère d’énormes risques pour la sécurité des données, des violations potentielles de conformité et des angles morts que les mesures de sécurité classiques ne peuvent pas détecter ni protéger.
Les organisations peuvent détecter l’IA de l’ombre via des enquêtes approfondies auprès des employés, l’analyse du trafic réseau et la surveillance des applications et flux web liés à l’IA. Cependant, la détection reste difficile car 53 % des employés utilisent des appareils personnels pour des tâches IA professionnelles, rendant ces activités invisibles pour la surveillance IT. La meilleure approche combine outils de monitoring technique et enquêtes honnêtes, non punitives, pour encourager la déclaration des usages réels de l’IA.
Les principaux risques incluent l’exposition non autorisée de données sur les plateformes IA, la perte de contrôle sur la localisation et le traitement des données, et la violation potentielle du RGPD, de HIPAA et des lois locales sur la protection des données. Lorsque les employés saisissent des informations sensibles dans des outils IA non validés, l’organisation perd la visibilité sur la façon dont ces données sont stockées, traitées ou éventuellement utilisées pour l’entraînement IA. La contamination des données entre locataires est un autre risque majeur, où des informations sensibles d’une organisation peuvent influencer les réponses IA fournies à d’autres.
Une gouvernance IA efficace repose sur trois piliers : des groupes de travail transversaux sur les risques IA réunissant IT, juridique et métiers ; des outils IA validés intégrés aux workflows standards pour répondre aux besoins métiers ; et une sensibilisation approfondie des collaborateurs aux risques IA et aux alternatives approuvées. Les organisations doivent mettre en place des cadres de gouvernance avec surveillance active (seulement 54 % le font actuellement), et non se contenter de politiques sans mécanismes d’application.
Les entreprises peuvent adopter l’IA en toute sécurité en mettant en place des passerelles de données IA qui assurent un contrôle d’accès zero trust, un chiffrement de bout en bout et une traçabilité complète de toutes les interactions IA. L’essentiel est d’instaurer des garde-fous techniques comme le blindage des prompts, le filtrage du contenu et le masquage des données, tout en garantissant la transparence et la maîtrise des processus décisionnels IA. Les organisations doivent rendre les outils IA approuvés plus attractifs et performants que les alternatives non autorisées, plutôt que de simplement restreindre l’usage de l’IA.
Ressources complémentaires
- Article de blog Zero Trust Architecture : Never Trust, Always Verify
- Vidéo Comment Kiteworks fait avancer le modèle Zero Trust de la NSA au niveau de la donnée
- Article de blog Étendre le Zero Trust à la couche contenu : ce que cela signifie
- Article de blog Instaurer la confiance dans l’IA générative grâce à l’approche Zero Trust
- Vidéo Kiteworks + Forcepoint : démonstration de la conformité et du Zero Trust à la couche contenu