Quatre autorités de régulation britanniques viennent de cartographier la crise de conformité des agents IA
Le 31 mars 2026, quatre régulateurs britanniques ont fait quelque chose d’inhabituel : ils ont cosigné une alerte.
Résumé de l’article
- Quatre régulateurs britanniques parlent d’une seule voix. La Competition and Markets Authority, la Financial Conduct Authority, l’Information Commissioner’s Office et Ofcom ont publié ensemble un rapport prospectif sur l’IA agentique en mars 2026. Quand quatre régulateurs lancent la même alerte au même moment, la direction à suivre ne fait plus aucun doute.
- L’autonomie ne transfère pas la responsabilité. Le DRCF clarifie un point : la responsabilité organisationnelle en matière de conformité légale reste inchangée, quel que soit le degré d’autonomie d’un agent IA. « C’est mon agent qui l’a fait » n’est pas une excuse acceptée par les régulateurs britanniques.
- Le problème des « mains multiples » est un problème de traçabilité. En cas d’incident, les régulateurs veulent savoir qui a autorisé quoi, quand, et sur quelles données. La plupart des organisations sont incapables de fournir ce niveau de détail pour les activités des agents IA, alors que les autorités l’exigeront.
- Toutes les organisations déploient des agents. Presque aucune ne sait les contrôler. Les enquêtes sectorielles montrent que 100 % des organisations ont l’IA agentique dans leur feuille de route, mais seulement quatre sur dix environ ont mis en place des coupe-circuits ou des contrôles de limitation d’usage. Le vrai enjeu, c’est ce déficit de gouvernance.
- La réponse architecturale se trouve dans la gouvernance au niveau des données. Les contrôles d’identité, les garde-fous sur les modèles et les filtres de prompts échouent tous au même endroit : dès que l’agent lit ou écrit des données réglementées. Les contrôles doivent accompagner les données, pas le modèle.
Le Digital Regulation Cooperation Forum — l’instance conjointe réunissant la Competition and Markets Authority, la Financial Conduct Authority, l’Information Commissioner’s Office et Ofcom — a publié un rapport prospectif intitulé The Future of Agentic AI. Ce rapport comporte une mention diplomatique précisant qu’il ne fait pas office de politique officielle. Mais il faut le lire.
Il identifie sept catégories de risques de conformité auxquels les entreprises sont confrontées alors que les agents IA passent des phases pilotes à l’exploitation : responsabilité fragmentée entre fournisseurs de modèles et déployeurs, échecs en matière de protection et de minimisation des données, injection de prompts et manipulation d’agents, enchaînement d’actions sans consentement éclairé, collusion algorithmique, dark patterns optimisés au détriment des consommateurs, et risques de classification liés à la sécurité en ligne. L’Institute of Chartered Accountants in England and Wales a récemment traduit ces sept risques pour les cabinets comptables. Cette traduction s’applique à tous les secteurs réglementés.
Le DRCF affirme clairement que la responsabilité organisationnelle en matière de conformité légale reste inchangée, quel que soit le degré d’autonomie de l’agent. En d’autres termes : si un agent enfreint une règle, c’est l’entreprise qui sera sanctionnée, pas l’agent. Cette seule phrase change la façon dont toutes les entreprises réglementées doivent aborder le risque de conformité lié aux agents IA en 2026.
Les sept risques que le DRCF veut voir traités par chaque entreprise
Le DRCF a organisé ses alertes selon quatre axes transversaux — gouvernance, protection des données et cybersécurité, droits et intérêts des consommateurs, et dynamiques de marché — mais l’opérationnel se résume à sept modes d’échec distincts en matière de conformité. La responsabilité fragmentée correspond au problème des « mains multiples » : quand plusieurs fournisseurs de modèles, intégrateurs et déployeurs interviennent sur le comportement d’un agent, qui porte la responsabilité en cas de violation ? Les échecs de protection des données incluent les traitements illicites, la dérive de finalité et l’échec de minimisation lorsque les agents accèdent à des données dont ils n’avaient pas besoin. L’injection de prompts et la manipulation transforment les agents en vecteurs d’attaque à leur insu. L’enchaînement d’actions prive l’utilisateur d’un consentement éclairé lorsque l’agent prend une série de décisions sans autorisation explicite de l’humain.
Les trois autres risques sont tout aussi précis. La collusion algorithmique désigne des agents capables de coordonner implicitement des prix ou des comportements sans accord explicite entre opérateurs. Les dark patterns désignent des agents optimisés pour maximiser l’engagement ou la conversion au détriment de l’intérêt du consommateur. La classification liée à la sécurité en ligne fait référence au risque qu’un outil de recherche ou de comparaison agentique soit considéré comme un service de recherche réglementé par l’Online Safety Act, avec des obligations légales à la clé.
Chacun de ces sept risques est déjà observable aujourd’hui. Le commentaire de Mondaq sur le rapport souligne que des chercheurs ont déjà documenté des modèles de pointe présentant des comportements de fixation des prix, de vol d’identifiants ou de dissimulation de messages — en production, pas seulement en laboratoire.
Pourquoi ce rapport a une portée au-delà du Royaume-Uni
La convergence réglementaire fait le travail que la mention diplomatique prétend ne pas faire. Le Stanford AI Index Report 2026 a analysé les cadres réglementaires qui influencent les décisions responsables en matière d’IA dans les entreprises l’an dernier. Le RGPD reste le plus cité avec 60 %. L’AI Act de l’UE et l’Executive Order américain sur l’IA progressent. La norme ISO/IEC 42001 — le système de management de l’IA — apparaît pour la première fois, citée par 36 % des organisations. Le cadre de gestion des risques IA du NIST est cité par 33 %. La proportion d’organisations déclarant ne subir aucune influence réglementaire sur leur démarche IA responsable est passée de 17 % à 12 %.
Les sept risques du rapport DRCF recoupent presque parfaitement les obligations créées par ces autres cadres. Ce n’est pas un hasard. Il s’agit du socle commun trans-juridictionnel de la gouvernance des agents IA pour la décennie à venir. Une entreprise qui traite les risques du DRCF répond à la plupart des exigences de l’AI Act de l’UE, de l’ISO 42001, de l’Executive Order américain sur l’IA et du Consumer Duty de la FCA.
Considérez donc ce rapport comme un registre des risques offert par des régulateurs dotés des moyens et de la volonté d’agir. Trois des quatre membres du DRCF — la FCA, l’ICO et la CMA — disposent de pouvoirs de sanction et les ont déjà exercés récemment. L’ICO a annoncé un futur Code de conduite statutaire sur l’IA et la prise de décision automatisée, qui pèsera dans les procédures contre les entreprises ne répondant pas aux attentes désormais publiques du rapport DRCF.
Le problème des « mains multiples » est avant tout un problème de traçabilité
Le rapport DRCF insiste sur ce qu’il appelle le défi des « mains multiples » — la dilution des responsabilités entre fournisseurs de modèles, plateformes d’agents, intégrateurs et organisations déployant les solutions. Le constat est philosophique, mais la solution opérationnelle ne l’est pas. En cas d’incident impliquant un agent, les régulateurs voudront voir un historique détaillé de qui a autorisé quoi, quand, et sur quelles données. Les entreprises capables de fournir cette traçabilité passeront à autre chose. Les autres passeront des années à échanger avec les autorités.
La plupart des organisations ne disposent pas aujourd’hui de cette traçabilité. Le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité a révélé que 63 % des organisations interrogées ne peuvent pas imposer de limitations de finalité aux agents IA, 60 % ne peuvent pas désactiver un agent défaillant, et 55 % ne peuvent pas isoler les systèmes IA du reste du réseau. Les organismes publics font pire : 90 % n’ont pas de limitation de finalité, 76 % n’ont pas de coupe-circuit, et un sur trois n’a aucun contrôle dédié à l’IA. Le rapport 2026 présente ce constat comme un écart de 15 à 20 points entre les contrôles de gouvernance revendiqués et les contrôles de confinement réellement efficaces.
Cet écart est crucial, car le test de responsabilité du DRCF ne s’arrête pas à l’intention. Il exige de prouver, a posteriori, que l’agent a agi dans les limites autorisées. Sans journal d’audit infalsifiable, associé à une identité stable pour chaque décision de l’agent, la démonstration échoue. Sans limitation de finalité imposée au niveau des données, les agents dérivent. Sans coupe-circuit automatisé, « nous allons examiner le problème » est la seule réponse possible.
Pourquoi les contrôles au niveau de l’identité ne suffiront pas
La réaction instinctive face à la gouvernance des agents IA a été de miser sur l’identité. Authentifier l’agent, lui attribuer un compte de service, limiter ses jetons OAuth, le traiter comme un utilisateur. Cette approche a fonctionné pour la gouvernance des solutions SaaS ces dix dernières années, et pour beaucoup d’organisations, c’est tout leur programme de gouvernance IA.
Elle ne résistera pas au cadre des sept risques du DRCF. Les contrôles d’identité répondent à la question « cet agent est-il autorisé à accéder à ce système ? » mais pas à « cet agent est-il autorisé à lire cet enregistrement précis, pour cette finalité précise, à ce moment précis, pour cet autorisateur précis ? » C’est cette seconde question que posent le rapport DRCF, les obligations de transparence de l’AI Act de l’UE, le Consumer Duty de la FCA et les exigences de minimisation de l’ICO. C’est une question de données, pas d’identité.
La divulgation d’Anthropic en septembre 2025 l’a illustré concrètement. Un acteur étatique chinois — GTG-1002 — a utilisé les outils Claude Code plus Model Context Protocol comme orchestrateurs autonomes auprès d’environ 30 entités, réalisant 80 à 90 % du travail tactique d’une opération de cyber-espionnage en plusieurs étapes, avec intervention humaine seulement à quatre à six moments critiques par campagne. Toutes ces actions d’agents étaient authentifiées. La faille portait sur l’accès aux données, pas sur l’authentification.
La réponse architecturale : une gouvernance qui accompagne les données
Le schéma qui se dessine à travers les risques du DRCF, les obligations fondées sur les risques de l’AI Act de l’UE, les exigences de système de management de l’ISO 42001 et la recommandation zéro trust du WEF Global Cybersecurity Outlook 2026 est identique. La conformité des agents IA doit être imposée au niveau des données, pas au niveau du modèle ou de l’identité. Trois fonctions concrètes définissent cette approche.
Contrôle d’accès basé sur les attributs à l’exécution. Plutôt que d’accorder un accès persistant à un agent, chaque action de l’agent est évaluée selon une règle dynamique qui croise les attributs des données (classification, juridiction, sensibilité), les attributs de l’utilisateur (l’humain autorisateur, son rôle, sa localisation) et l’action demandée. La règle décide — et elle est exécutable, traçable et modifiable sans réentraîner le modèle.
Journalisation infalsifiable au niveau de chaque action. Chaque décision d’agent sur chaque actif de données est consignée avec l’intégralité de l’évaluation de la règle, les entrées, les sorties et l’humain autorisateur. Le journal est infalsifiable, exportable et structuré pour constituer un dossier de preuve recevable par un régulateur.
Une passerelle gouvernée entre agents et données. Les agents ne sollicitent pas directement les systèmes de données. Ils passent par un plan de gouvernance qui applique la règle, exécute la directive (bloquer, exiger une validation, masquer, autoriser avec filigrane), puis transmet la demande. Même un agent victime d’une injection de prompt ne peut dépasser la limite de la règle, car cette limite est externe à l’agent.
C’est autour de cette architecture que Kiteworks Compliant AI et le Kiteworks Secure MCP Server sont conçus. C’est aussi ce que l’ISO 42001 attend d’un système de management de l’IA, ce que l’AI Act de l’UE exige pour une IA à haut risque, et ce que le rapport DRCF sous-entend pour toute entreprise déployant des agents. La convergence est le message clé.
Comment Kiteworks met en œuvre les sept risques du DRCF
Le Réseau de données privé Kiteworks considère le risque de conformité des agents IA comme un problème de plan de contrôle, ce qui correspond directement au cadre de responsabilité du DRCF. Le moteur de règles de données Kiteworks applique des politiques dynamiques basées sur les attributs à chaque accès aux données — qu’il s’agisse d’un agent, d’une intégration, d’un utilisateur ou d’un destinataire externe. Ce même moteur produit des journaux d’audit infalsifiables qui répondent au test de responsabilité des « mains multiples » en associant chaque action d’agent à son autorisateur humain, à la règle appliquée et à l’actif de données concerné.
Les données du rapport prévisionnel 2026 de Kiteworks illustrent l’importance opérationnelle de cette approche. La même enquête qui a mis en évidence le déficit de 63 % sur la limitation de finalité a révélé que 33 % des organisations n’ont pas de journaux d’audit de qualité probante — les preuves qu’un régulateur exigerait au titre du Consumer Duty de la FCA, des attentes de l’ICO en matière de protection des données ou des obligations de transparence de l’AI Act de l’UE. Kiteworks comble cet écart en fusionnant l’application des règles et la production d’audits dans un même flux de travail. Le Réseau de données privé Kiteworks génère des dossiers de preuve conformes au RGPD, à la HIPAA, à la CMMC 2.0, aux cadres de menaces internes et externes, y compris la cartographie transréglementaire anticipée par le rapport DRCF pour les régulateurs britanniques.
Point essentiel : cette architecture ne ralentit pas l’adoption de l’IA. Elle gouverne les données auxquelles les agents peuvent accéder, quel que soit le modèle, le cadre ou la plateforme utilisé. C’est ce que le rapport DRCF signifie lorsqu’il affirme que l’IA agentique ne sort pas du cadre légal existant. Les cadres existent déjà. Il faut construire le plan de contrôle.
Ce que les responsables conformité, juridique et sécurité doivent faire avant le T3
Le rapport DRCF ne définit pas de politique, mais l’ICO a annoncé un futur Code de conduite statutaire sur l’IA et la prise de décision automatisée, la FCA continue de sanctionner les entreprises dont les outils IA produisent de mauvais résultats pour les clients, et la CMA a confirmé sa volonté de contrôler les comportements algorithmiques. La période qui s’ouvre jusqu’au prochain cycle de sanctions est celle où il faut anticiper ces risques.
Premièrement, traitez les sept risques comme une checklist à présenter au conseil d’administration. Le DRCF vous a fourni le registre des risques. Demandez à votre CCO, GC, RSSI et DSI de confirmer par écrit — séparément — lesquels des sept risques l’organisation sait traiter aujourd’hui, lesquels non, et où se situe l’écart. N’acceptez pas « nous y travaillons » comme réponse dans le tableau.
Deuxièmement, auditez l’écart entre les déclarations de gouvernance et la réalité du confinement. Le rapport prévisionnel 2026 de Kiteworks montre un écart de 15 à 20 points entre la posture de gouvernance IA affichée et la capacité réelle à limiter le comportement des agents. Pour combler cet écart, il faut tester — pas sur table, mais en tentant réellement de désactiver, rediriger ou limiter un agent déployé. La plupart des organisations découvrent que leur coupe-circuit est théorique.
Troisièmement, reliez l’activité des agents à un journal d’audit infalsifiable avant tout nouveau déploiement. Avant qu’un nouvel agent ne passe en production, l’équipe responsable doit pouvoir démontrer un historique complet de ses accès prévus aux données, des règles qui les encadrent et du journal d’audit de chaque décision prise. Si cette démonstration est impossible, l’agent n’est pas prêt.
Quatrièmement, déplacez l’application de la gouvernance du modèle vers la couche données. Les données du rapport prévisionnel 2026 de Kiteworks montrent que les organisations qui s’appuient sur des filtres de prompts, des garde-fous sur les modèles et des contrôles d’identité seuls sont aussi celles qui obtiennent les plus mauvais scores de confinement. Le changement architectural consiste à placer la règle exécutable là où sont les données — à chaque lecture, chaque écriture, chaque partage.
Cinquièmement, préparez dès maintenant un dossier de preuves, pas après une enquête. Les régulateurs n’accepteront pas « nous n’avons pas encore rassemblé ces informations ». Le dossier doit inclure le cadre de règles, l’inventaire des agents, les journaux d’audit et la cartographie croisée avec le RGPD, l’AI Act de l’UE, l’ISO 42001 et le cadre sectoriel pertinent. Les entreprises capables de fournir ces éléments en quelques heures seront celles qui tourneront la page rapidement.
Le rapport DRCF est, au fond, une feuille de route gratuite. Servez-vous-en.
Foire aux questions
Le rapport DRCF précise que le Consumer Duty de la FCA s’applique aux résultats générés par les agents IA, quel que soit leur niveau d’autonomie. Les entreprises doivent démontrer de bons résultats pour les clients, une juste valeur et un consentement éclairé — les agents qui enchaînent les actions ou utilisent des dark patterns échouent à ce test. Le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité a révélé que 63 % des organisations ne peuvent pas imposer de limitations de finalité aux agents IA — c’est précisément ce déficit qui expose au Consumer Duty.
Il faut trois éléments de preuve : une limitation de finalité documentée au niveau des données, des journaux d’audit infalsifiables pour chaque action d’agent, et une capacité de coupe-circuit activable à la demande. Le Code de l’ICO devrait peser dans les procédures, donc il faut démontrer ces contrôles dès maintenant. Le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité montre que seulement 40 % des organisations disposent actuellement de coupe-circuits opérationnels — la barre va être relevée par les régulateurs.
Les exigences HIPAA en matière de minimisation, de contrôle d’accès et d’audit s’appliquent à l’accès des agents IA aux informations médicales protégées (PHI) — les risques DRCF (protection des données, responsabilité fragmentée, enchaînement d’actions) s’y ajoutent. Chaque agent doit être authentifié, limité au strict nécessaire et journalisé au niveau de chaque action. Le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité montre que 33 % des organisations n’ont pas de journaux d’audit de qualité probante — c’est rédhibitoire tant pour la conformité HIPAA que pour le test de responsabilité du DRCF.
Oui, car les exigences CMMC Niveau 2 en matière de contrôle d’accès, d’audit et d’identification imposent la même gouvernance au niveau des données que celle décrite par le rapport DRCF. Les agents IA accédant à des CUI doivent satisfaire simultanément aux familles de contrôles AC, AU et IA. Le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité montre que seulement 46 % des organisations du secteur DIB se considèrent prêtes pour le CMMC. L’application de l’ABAC au niveau des données permet de répondre à plusieurs familles de contrôles avec une seule architecture.
Commencez par cette phrase : la responsabilité organisationnelle en matière de conformité légale reste inchangée, quel que soit le niveau d’autonomie des agents IA. Ce principe rebat toutes les questions de gouvernance que posera le conseil. Ajoutez le constat d’écart — le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité montre que 100 % des organisations ont l’IA agentique dans leur feuille de route, mais seulement 40 % environ ont mis en place des coupe-circuits. La fenêtre d’exposition est grande ouverte et se referme lentement.