Les agents IA viennent de compromettre votre conformité à l’article 32 du RGPD

Soixante pour cent des organisations allemandes considèrent le partage non autorisé de données par des partenaires et des fournisseurs comme un enjeu majeur de conformité, selon le rapport prévisionnel Kiteworks 2026 sur la sécurité des données et les risques de conformité. La moyenne mondiale s’établit à 31 %. Ce chiffre allemand n’est pas un artefact culturel. Il résulte logiquement de dix ans d’application de la réglementation, qui ont appris aux Datenschutzbeauftragte, responsables conformité et RSSI de la région DACH une leçon douloureuse mais claire : selon l’article 82 du RGPD, vous restez responsable de l’utilisation que le sous-traitant ou le responsable du traitement en aval fait des données personnelles que vous lui avez transmises, que vous contrôliez ou non l’infrastructure.

Résumé des points clés

  1. L’acteur en aval n’est plus un simple humain. L’article 32 du RGPD a été rédigé en supposant des comptes de service et des partenaires sous contrat. Quand l’acteur en aval est un agent autonome qui enchaîne des appels d’outils à travers plusieurs juridictions, l’ensemble des contrôles doit évoluer.
  2. Les organisations allemandes ont déjà identifié le problème. Soixante pour cent citent le partage non autorisé de données comme une préoccupation majeure — soit près du double de la moyenne mondiale. Dix ans d’application du RGPD ont rendu la responsabilité liée à l’utilisation des données en aval bien concrète, et non plus théorique.
  3. Quatre régimes réglementaires convergent vers la même architecture. L’article 32 du RGPD, NIS 2, l’AI Act européen et DORA exigent tous des preuves en temps réel et vérifiables de la localisation des données réglementées, des personnes ou agents qui y ont accédé, et selon quelle politique — humaine ou machine.
  4. Les garde-fous au niveau du modèle ne sont pas des contrôles de sécurité. La recherche académique a documenté des taux de réussite d’injection de prompt supérieurs à 86 % sur des applications intégrant de vrais LLM. La formation à la sécurité ne remplace pas l’authentification, l’autorisation basée sur les attributs et l’audit infalsifiable.
  5. La gouvernance au niveau de la donnée est la solution pérenne. Les contrôles ancrés dans la donnée elle-même — ABAC, chiffrement validé FIPS, conservation des clés dans la juridiction, streaming SIEM en temps réel — résistent à l’injection de prompt, à la compromission d’agents et à la prochaine classe de vulnérabilité inconnue.

Cette leçon a été apprise alors que l’acteur en aval était un humain — un employé d’un fournisseur, un compte de service, un sous-traitant avec un périmètre clairement défini. En 2026, chaque responsable sécurité et conformité allemand doit se demander si les « geeignete technische und organisatorische Maßnahmen » documentées trois ans plus tôt pour l’article 32 sont toujours pertinentes lorsque l’acteur en aval est un agent IA autonome exécutant des workflows complexes sur trois juridictions en une seule transaction. Dans la plupart des cas, la réponse honnête est non.

L’ensemble des contrôles de l’article 32 a été rédigé en 2016. Il supposait des utilisateurs humains, des comptes de service et des applications bien délimitées. Il ne prévoyait pas qu’un modèle puisse être manipulé par injection de prompt pour exfiltrer des données sans que la couche applicative ne le journalise, que la couche réseau ne le détecte ou que l’agent endpoint ne l’observe. Le langage réglementaire n’a pas changé, mais la surface d’attaque, elle, a évolué.

La pile réglementaire à quatre régimes qui façonne 2026

Quatre régimes réglementaires simultanés imposent désormais des exigences techniques distinctes sur les mêmes flux de données sous-jacents, que les agents IA orchestrent de plus en plus. Comprendre leur cumul est le point de départ de toute posture de conformité défendable en 2026.

L’article 32 du RGPD impose un chiffrement de pointe, la pseudonymisation et la capacité à restaurer la disponibilité et l’accès aux données personnelles après un incident. Cet article est fondé sur des principes, ce qui signifie que les régulateurs interprètent « l’état de l’art » en fonction de la menace actuelle — et non celle de 2016.

La directive NIS 2, transposée en Allemagne via la
NIS-2-Umsetzungsgesetz
, élargit considérablement le périmètre des entités essentielles et importantes et introduit la responsabilité personnelle des organes de direction qui n’appliquent pas de mesures de gestion des risques. Les recommandations techniques de l’ENISA de juin 2025 rendent les exigences en matière de preuves explicites : politiques de chiffrement, journaux d’audit, gouvernance de la cryptographie et vérifications d’intégrité des sauvegardes sont tous considérés comme des contrôles probants à démontrer à la demande.

L’AI Act européen ajoute des obligations supplémentaires. Les obligations relatives aux IA à usage général sont entrées en vigueur en août 2025 ; les dispositions pour les systèmes à haut risque seront pleinement applicables en août 2026. Le rapport prévisionnel Kiteworks indique que 40 % des répondants européens considèrent les obligations de l’AI Act comme une préoccupation directe.

DORA s’applique aux institutions financières européennes depuis janvier 2025, imposant la gestion des risques TIC, la déclaration d’incidents et les tests de résilience des tiers. Elle concerne les banques, assureurs, sociétés d’investissement et leurs prestataires TIC critiques — qui incluent désormais les fournisseurs d’IA.

Aucun ensemble de contrôles ne répond individuellement à ces quatre régimes. Mais la question architecturale sous-jacente est la même : pouvez-vous démontrer, à la vitesse d’un audit, où se trouvent les données réglementées, comment elles sont accessibles, par quelles identités — humaines ou machines — et selon quelle politique ?

Où l’article 32 montre ses limites dans un environnement agentique

Le schéma classique de mise en œuvre de l’article 32 présente trois failles spécifiques dès lors que des agents IA interviennent.

Premièrement, l’identité. Un agent IA qui appelle une pipeline interne de génération augmentée par la recherche ne s’authentifie pas comme un utilisateur humain. S’il s’authentifie, c’est généralement via un compte de service ou un jeton API large avec des autorisations permanentes. Les recommandations NIS 2 de l’ENISA et le
BSI IT-Grundschutz
insistent sur l’accès au moindre privilège et la fédération d’identités — des concepts qui supposent une identité et un objectif bien définis. Un acteur non humain capable d’invoquer dix-sept outils sur quatre systèmes en une seule session pilotée par prompt ne rentre pas dans ce modèle. OAuth 2.0 avec des jetons de rafraîchissement à portée limitée, liés à l’humain qui a délégué le workflow, n’est pas une option : c’est la condition préalable pour que la notion de « personnes autorisées » de l’article 32 ait un sens lorsque la « personne » est du code.

Deuxièmement, la granularité de l’autorisation. Le contrôle d’accès basé sur les rôles décide si un principal peut lire un dossier. Il ne décide pas si ce principal, agissant pour le compte d’un humain donné, dans un contexte précis, pour un objectif précis, peut lire un document classé à un certain niveau de sensibilité. Le contrôle d’accès basé sur les attributs — ABAC — le permet. Un moteur de politique ABAC qui évalue chaque requête selon l’identité de l’agent, la classification des données (idéalement via les labels de sensibilité Microsoft Purview ou MIP), le contexte de la demande et l’objectif déclaré est le seul contrôle qui passe à l’échelle du nombre de décisions d’accès initiées par l’IA qu’une entreprise moderne générera en 2026 et 2027.

Troisièmement, la preuve. Une piste d’audit infalsifiable qui enregistre qui (agent et humain délégant), quoi (opération et objet de données), quand (horodatage à la milliseconde), où (géographie source et destination) et pourquoi (contexte de politique et classification) est l’élément que les régulateurs, autorités de protection des données et autorités compétentes NIS 2 exigeront réellement. Le rapport prévisionnel Kiteworks montre que les contrôles de gouvernance — surveillance, journalisation, définition de politiques — devancent de 15 à 20 points les contrôles de confinement — limitation des agents, kill switches, isolement réseau. Les organisations allemandes ont investi dans la journalisation. Le point faible reste l’exécution : la capacité à agir sur ce que révèlent les logs avant que les données ne disparaissent.

Pourquoi les garde-fous au niveau du modèle ne sont pas des contrôles de sécurité

L’erreur la plus fréquente constatée dans les programmes de gouvernance des données IA en DACH consiste à considérer les garde-fous au niveau du modèle comme une frontière de sécurité. Les filtres de contenu, prompts système, formation à l’alignement et réglages de sécurité sont utiles pour limiter les abus accidentels. Aucun n’est un contrôle de sécurité au sens où l’entendent les régulateurs.

Les preuves académiques sont sans appel. Une étude largement citée sur 36 applications réelles intégrant des LLM a montré que 31 d’entre elles — soit 86,1 % — étaient vulnérables à
l’injection de prompt
. Un article de 2026 présenté au Symposium IEEE sur la sécurité et la confidentialité a analysé 17 plugins de chatbot tiers utilisés sur plus de 10 000 sites publics et révélé que 15 d’entre eux permettent une injection de prompt indirecte, faute de distinguer contenu fiable et non fiable. Le
CrowdStrike Global Threat Report 2026
fait état d’une augmentation de 89 % des attaques adverses dopées à l’IA sur un an, avec 82 % des détections désormais sans malware.

Traduit dans le langage de l’article 32 : le modèle ne peut pas se défendre seul. La formation à la sécurité n’est pas un contrôle d’accès. L’alignement n’est pas une authentification. Un attaquant qui réussit une injection de prompt au-delà des garde-fous du modèle n’a pas exploité un cas limite obscur — il a exploité la principale surface d’attaque de chaque pipeline RAG, workflow agentique et assistant IA de l’entreprise.

Cela compte, car les autorités compétentes NIS 2, les autorités allemandes de protection des données et les organismes de surveillance de l’AI Act n’accepteront pas « nous avons appliqué les paramètres de sécurité par défaut du fournisseur » comme preuve de mesures techniques appropriées. Ils demanderont quels contrôles indépendants existaient lorsque — et non si — les garde-fous ont été contournés.

Le changement d’architecture : la gouvernance au niveau de la donnée

La conclusion architecturale est claire : les contrôles de sécurité ancrés au périmètre réseau, à l’endpoint ou même à la couche applicative ne suffisent plus pour les flux de données à l’ère de l’IA. Ils étaient adaptés lorsque les applications étaient les acteurs terminaux. Ils ne le sont plus quand l’acteur terminal est un modèle susceptible d’être manipulé par injection de prompt, d’enchaîner des appels d’outils et d’exfiltrer des données par des canaux que les agents endpoint n’observent jamais.

Ce qui fonctionne, c’est un plan de contrôle conçu au niveau de la donnée elle-même — là où chaque requête, quel que soit son émetteur, est évaluée selon un ensemble cohérent de points de contrôle avant tout mouvement de données.

Une identité authentifiée, liée via OAuth 2.0 à un humain délégant, avec des jetons de rafraîchissement à portée limitée qui associent les sessions d’agents aux décisions humaines déléguées. Pas d’IA anonyme. Pas de contrôles d’accès permanents par comptes de service sur les dépôts réglementés.

Évaluation ABAC en temps réel selon l’identité de l’agent, la classification des données et le contexte de la demande. La même logique de politique déjà appliquée aux utilisateurs humains, étendue aux acteurs machines au niveau du document plutôt qu’au niveau du dossier.

Chiffrement validé FIPS 140-3 niveau 1 pour les données en transit et chiffrement AES 256 au repos, avec conservation des clés dans la juridiction — une exigence que les autorités allemandes de protection des données rappellent régulièrement depuis l’arrêt Schrems II, et que le Data Forms Survey Report 2025 considère comme critique pour 58 % des répondants allemands.

Streaming d’audit infalsifiable vers le SIEM en temps réel, sans limitation ni délai. Lors de la prochaine violation, la reconstitution des mouvements de données, des acteurs et du timing doit relever d’une simple requête de reporting, et non d’une enquête forensique.

Surface de déploiement durcie. Une appliance virtuelle durcie en défense en profondeur, avec WAF, IDPS et règles d’automatisation intégrées — le schéma architectural qui a permis aux clients de vivre des vulnérabilités CVSS 10 comme Log4Shell comme de simples incidents internes CVSS 4, car les contrôles au niveau de la donnée tenaient même lorsque la couche applicative était exposée.

L’approche Kiteworks : l’architecture avant les intentions

Kiteworks a été conçu dès le départ comme une plateforme de gouvernance au niveau de la donnée, précisément pour les flux de données réglementés que les agents IA orchestrent désormais. Ce schéma architectural reste identique, que l’acteur demandeur soit un utilisateur humain, un compte de service, un assistant Claude ou Copilot via le Secure MCP Server, ou un pipeline RAG de production accédant au contenu d’entreprise via l’AI Data Gateway.

Chaque demande d’accès passe par quatre points de contrôle de gouvernance : identité authentifiée via OAuth 2.0 liée à l’humain délégant le workflow ; évaluation ABAC en temps réel selon l’identité de l’agent, la classification des données et le contexte via le moteur de politique de données Kiteworks ; chiffrement validé FIPS 140-3 niveau 1 pour les données en transit et chiffrement AES 256 au repos, avec conservation des clés dans la juridiction ; et piste d’audit infalsifiable transmise en temps réel au SIEM du client via le Real-time SIEM Feed. Les contrôles s’appliquent au niveau de la donnée, pas du modèle — ce qui signifie que l’injection de prompt, la compromission d’agents ou de futures vulnérabilités inconnues ne peuvent pas les contourner en attaquant l’IA.

La même plateforme génère à la demande des preuves de conformité adaptées aux référentiels. Les rapports de conformité préconfigurés couvrent la conformité RGPD, HIPAA, CMMC 2.0, les menaces internes et externes. L’Interactive Audit Log Map permet aux responsables conformité de visualiser géographiquement les événements d’audit, ce qui est essentiel pour le reporting des incidents NIS2 et pour toute question de transfert transfrontalier soulevée par une autorité de protection des données. L’architecture n’est pas une intention : c’est celle qui a permis aux clients Kiteworks de contenir Log4Shell comme un simple incident interne, alors que le reste du secteur reconstruisait tout.

Ce que les organisations allemandes doivent faire en 2026

Pour les RSSI, DPO et responsables NIS 2 qui réévaluent leurs mesures techniques et organisationnelles cette année, l’architecture minimale viable pour la gouvernance des données IA à l’ère de l’IA se décline en cinq actions concrètes.

Premièrement, authentifiez chaque agent IA et workflow automatisé via OAuth 2.0, avec un modèle de jeton de rafraîchissement qui lie la session de l’agent à un humain identifié. Pas de comptes de service partagés avec jetons API permanents pour accéder aux dépôts réglementés. Si vous ne pouvez pas répondre à la question « quel humain a autorisé cet agent à accéder à ces données à cet instant », vous ne pouvez pas défendre votre posture Article 32.

Deuxièmement, évaluez chaque demande d’accès aux données via un moteur de politique ABAC qui intègre les labels de sensibilité — Microsoft Purview, MIP ou équivalent — et applique des décisions limitées à l’objectif au niveau du document, et non du dossier. Les contrôles basés sur les rôles suffisaient quand les utilisateurs avaient des postes et que les postes impliquaient un accès aux données. Les agents ont des sessions, pas des postes.

Troisièmement, chiffrez toutes les données au repos sous chiffrement AES 256 avec des clés détenues dans un HSM contrôlé par le client ou un dispositif de gestion des clés équivalent dans la juridiction de traitement. Pour les secteurs fédéraux, défense ou infrastructures critiques, exigez des modules de chiffrement validés FIPS 140-3 niveau 1. Depuis l’arrêt Schrems II, « le fournisseur cloud chiffre » n’est pas équivalent à « les clés de chiffrement ne quittent pas notre juridiction légale ».

Quatrièmement, produisez des journaux d’audit infalsifiables pour chaque interaction — agent ou humain — transmis à votre SIEM en temps réel, avec des métadonnées suffisantes pour reconstituer l’intégralité de la traçabilité des données. Le rapport prévisionnel Kiteworks révèle que seules 43 % des organisations disposent aujourd’hui d’une AI Data Gateway centralisée. Combler cet écart distingue les organisations capables de répondre à une demande d’autorité de protection des données en quelques heures de celles qui ont besoin de semaines.

Cinquièmement, mettez en place et testez des contrôles de confinement. La capacité à mettre fin à un agent défaillant, révoquer une session déléguée et isoler un workflow compromis est l’étape que la plupart des organisations négligent, car elle est plus complexe à opérer que la journalisation. Le rapport prévisionnel Kiteworks indique que 60 % des organisations ne peuvent pas actuellement mettre fin à un agent défaillant, 63 % ne peuvent pas imposer de limites d’objectif, et 55 % ne peuvent pas empêcher les mouvements latéraux. Ces chiffres constituent le principal constat pour la prochaine vague d’audits NIS 2.

Les organisations qui agiront sur ces cinq points en 2026 progresseront, de façon contre-intuitive, plus vite dans l’adoption de l’IA — et non plus lentement — que leurs concurrents sur des marchés moins réglementés. Car leurs contrôles tiendront réellement lorsque la première sanction européenne majeure tombera sur une fuite de données pilotée par l’IA.

Foire aux questions

L’article 32 repose sur des principes, ce qui signifie que les mesures doivent correspondre à l’état de l’art actuel. Lorsque des agents IA accèdent à des données personnelles, cela implique désormais une identité d’agent authentifiée liée à un humain délégant, un contrôle d’accès basé sur les attributs au niveau du document, et une journalisation d’audit infalsifiable de chaque interaction d’agent. Les recommandations NIS 2 de l’ENISA considèrent explicitement ces éléments comme des contrôles probants.

La
directive NIS 2
introduit la responsabilité personnelle des organes de direction qui n’appliquent pas et ne supervisent pas les mesures de gestion des risques en cybersécurité. Les agents IA accédant à des données d’entités essentielles ou importantes sont pleinement concernés. La direction doit pouvoir démontrer que les contrôles techniques — identité, autorisation, chiffrement et audit — s’appliquent aussi aux accès initiés par l’IA, et pas seulement aux utilisateurs humains.

Les deux s’appliquent simultanément. L’AI Act européen impose la gestion des risques, la gouvernance des données et la supervision humaine sur les systèmes à haut risque ; le RGPD continue de régir la base légale, la minimisation des données et la sécurité des données personnelles traitées. Les dispositions pour les systèmes à haut risque seront pleinement applicables en août 2026, et les autorités de surveillance exigeront des preuves — et non de simples intentions.

Le rapport prévisionnel Kiteworks 2026 montre que les organisations allemandes ressentent fortement ce risque, car l’article 82 rend la responsabilité en aval bien réelle. La réponse architecturale est la gouvernance au niveau de la donnée : contrôles basés sur les attributs qui imposent des limites d’objectif au niveau du contenu, chiffrement avec conservation des clés dans la juridiction, et journaux infalsifiables de chaque accès en aval — pour pouvoir prouver ce que vos partenaires ont fait de vos données.

DORA exige une gestion documentée des risques TIC et des tests de résilience des tiers — ce qui inclut désormais les fournisseurs IA et les agents qu’ils déploient. Votre cadre de gestion des risques TIC doit intégrer l’identité authentifiée des agents, le contrôle d’accès aux données réglementées par des politiques, des pistes d’audit infalsifiables et des contrôles de confinement testés pour les workflows IA. Les régulateurs qui examinent la résilience TIC attendront ces preuves, et non de simples politiques sur le papier.

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks