Cuatro organismos reguladores del Reino Unido acaban de trazar el mapa de la crisis de cumplimiento de agentes de IA
El 31 de marzo de 2026, cuatro organismos reguladores del Reino Unido hicieron algo poco habitual: firmaron conjuntamente una advertencia.
Aspectos clave
- Cuatro reguladores del Reino Unido hablan al unísono. La Competition and Markets Authority, la Financial Conduct Authority, la Information Commissioner’s Office y Ofcom publicaron conjuntamente un informe prospectivo sobre IA agente en marzo de 2026. Cuando cuatro reguladores emiten la misma advertencia al mismo tiempo, la dirección a seguir deja de ser ambigua.
- La autonomía no transfiere la responsabilidad. El DRCF deja claro un punto: la responsabilidad organizacional de cumplir la ley no cambia, sin importar cuán autónomamente actúe un agente de IA. «Lo hizo mi agente» no es una defensa que acepte ningún regulador del Reino Unido.
- El problema de las «muchas manos» es un problema de trazabilidad. Cuando algo sale mal, los reguladores esperan ver quién autorizó qué, cuándo y sobre qué datos. La mayoría de las organizaciones no pueden generar ese registro del comportamiento de los agentes de IA con el nivel de detalle que exigirá la supervisión.
- Todas las organizaciones están implementando agentes. Casi ninguna puede restringirlos. Los datos de encuestas del sector muestran que el 100% de las organizaciones tienen IA agente en su hoja de ruta, pero solo alrededor de cuatro de cada diez han implementado interruptores de emergencia o controles de vinculación de propósito. La brecha de gobernanza es el verdadero tema.
- La respuesta arquitectónica es la gobernanza en la capa de datos. Los controles de identidad, las barreras en los modelos y los filtros de prompts fallan siempre en el mismo punto: cuando el agente lee o escribe datos regulados. Los controles deben estar con los datos, no con el modelo.
El Digital Regulation Cooperation Forum — el organismo conjunto que agrupa a la Competition and Markets Authority, la Financial Conduct Authority, la Information Commissioner’s Office y Ofcom — publicó un informe prospectivo titulado The Future of Agentic AI. El informe incluye una advertencia diplomática: no debe interpretarse como política oficial. Léelo de todos modos.
Identifica siete categorías de riesgos de cumplimiento que enfrentan ahora las empresas a medida que los agentes de IA pasan de pruebas piloto a operaciones: responsabilidad fragmentada entre proveedores de modelos e implementadores, fallos en protección y minimización de datos, inyección de prompts y manipulación de agentes, agrupación de acciones sin consentimiento informado, colusión algorítmica, patrones oscuros optimizados en contra de los intereses del consumidor y riesgos de clasificación de seguridad en línea. El Institute of Chartered Accountants in England and Wales tradujo la lista de riesgos para firmas contables la semana pasada. La traducción aplica a todos los sectores regulados.
El DRCF afirma sin rodeos que la responsabilidad organizacional de cumplir la ley permanece inalterada, sin importar la autonomía del agente. En otras palabras: si un agente incumple una norma, la multa es para la empresa, no para el agente. Esa sola frase cambia la perspectiva sobre el riesgo de cumplimiento de IA agente en 2026 para cualquier empresa regulada.
Los siete riesgos que el DRCF quiere que toda empresa pueda responder
El DRCF organizó sus advertencias bajo cuatro ejes regulatorios — gobernanza, protección de datos y ciberseguridad, derechos e intereses del consumidor y dinámica de mercado — pero el contenido operativo son siete modos distintos de fallo de cumplimiento. Responsabilidad fragmentada es el problema de las «muchas manos»: cuando múltiples proveedores de modelos, integradores de sistemas e implementadores contribuyen al comportamiento de un agente, ¿quién asume la infracción? Fallos en la protección de datos incluyen procesamiento ilegal, desvío de propósito y quiebres en la minimización cuando los agentes acceden a datos que no necesitaban. Inyección de prompts y manipulación convierten a los agentes en atacantes involuntarios. Agrupación de acciones elimina el consentimiento significativo cuando un agente toma una serie de decisiones que el usuario humano nunca autorizó explícitamente.
Los tres riesgos restantes son igual de concretos. Colusión algorítmica describe agentes que pueden coordinar precios o comportamientos sin acuerdo explícito entre operadores. Patrones oscuros se refiere a agentes optimizados para maximizar la interacción o conversión a costa de los intereses del consumidor. Clasificación de seguridad en línea abarca el riesgo de que una herramienta de búsqueda o comparación agente sea tratada como un servicio de búsqueda regulado bajo la Online Safety Act, con obligaciones legales asociadas.
Cada uno de estos siete riesgos es observable hoy. El análisis de Mondaq sobre el informe señala que los investigadores ya han documentado modelos de frontera que exhiben comportamientos de fijación de precios, robo de credenciales y ocultamiento de mensajes — en uso comercial, no solo en laboratorio.
Por qué este informe importa más allá del Reino Unido
La convergencia regulatoria está logrando lo que la advertencia diplomática pretende no hacer. El Stanford AI Index Report 2026 rastreó los marcos regulatorios que influyen en las decisiones de IA responsable dentro de las empresas el año pasado. El GDPR siguió siendo el más citado con un 60%. La Ley de IA de la UE y la Orden Ejecutiva de IA de EE. UU. aumentaron su presencia. ISO/IEC 42001 — el estándar de sistemas de gestión de IA — apareció por primera vez, citado por el 36% de las organizaciones. El Marco de Gestión de Riesgos de IA del NIST fue citado por el 33%. Las organizaciones que reportaron no tener influencia regulatoria en su trabajo de IA responsable bajaron del 17% al 12%.
Los siete riesgos del informe del DRCF se alinean casi perfectamente con las obligaciones que crean estos otros marcos. No es coincidencia. Es la base interjurisdiccional de cómo será la gobernanza de agentes de IA en lo que resta de la década. Una empresa que se prepara para los riesgos del DRCF cumple con la mayor parte de lo que ya exigen la Ley de IA de la UE, ISO 42001, la Orden Ejecutiva de IA de EE. UU. y el Consumer Duty de la FCA.
Trata el informe, entonces, como un registro de riesgos gratuito de reguladores con medios y motivos para hacerlos cumplir. Tres de los cuatro miembros del DRCF — la FCA, la ICO y la CMA — tienen facultades de ejecución activas y antecedentes recientes de uso. La ICO ha anunciado un próximo Código de Prácticas legal sobre IA y toma de decisiones automatizada, que probablemente tendrá peso probatorio en acciones contra empresas que no cumplan las expectativas que el informe del DRCF ya ha hecho públicas.
El problema de las «muchas manos» es realmente un problema de trazabilidad
El informe del DRCF dedica espacio real a lo que llama el reto de las «muchas manos» — la forma en que la responsabilidad se diluye entre proveedores de modelos, plataformas de agentes, integradores y organizaciones implementadoras. El enfoque es filosófico, pero la solución operativa no lo es. Cuando algo sale mal con un agente, los reguladores querrán ver un registro de quién autorizó qué, cuándo y sobre qué datos. Las empresas que puedan generar ese registro serán las que sigan adelante. Las que no, pasarán años en correspondencia con los reguladores.
La mayoría de las organizaciones hoy no pueden generar ese registro. El informe Kiteworks Data Security and Compliance Risk: 2026 Forecast Report encontró que el 63% de las organizaciones encuestadas no pueden imponer limitaciones de propósito a los agentes de IA, el 60% no puede terminar un agente que se comporta mal y el 55% no puede aislar los sistemas de IA de la red general. Las respuestas del sector público son peores: el 90% carece de vinculación de propósito, el 76% no tiene interruptores de emergencia y uno de cada tres no cuenta con controles de IA dedicados. El informe 2026 enmarca esto como una brecha de 15 a 20 puntos entre los controles de gobernanza que las organizaciones dicen tener y los controles de contención que realmente funcionan.
Esa brecha importa porque la prueba de responsabilidad del DRCF no se detiene en la intención. Analiza si la organización puede demostrar, después del hecho, que el agente operó dentro de los límites autorizados. Sin una trazabilidad auditable e inviolable asociada a una identidad estable para cada decisión del agente, la demostración falla. Sin limitación de propósito aplicada en la capa de datos, los agentes se desvían. Sin un interruptor de emergencia automatizado, «revisaremos el problema» es la única respuesta posible.
Por qué los controles en la capa de identidad no te salvarán
La respuesta instintiva a la gobernanza de agentes de IA ha sido apoyarse en la identidad. Autenticar al agente, darle una cuenta de servicio, limitar sus tokens OAuth y tratarlo como a un usuario. Este fue el enfoque que funcionó para la gobernanza de software como servicio en la última década, y para muchas organizaciones es todo su programa de gobernanza de IA.
No sobrevivirá al marco de siete riesgos del DRCF. Los controles de identidad responden a la pregunta «¿este agente puede acceder a este sistema?». No responden «¿este agente puede leer este registro específico, para este propósito concreto, en este momento, en nombre de este autorizador?». Esa segunda pregunta es la que exige el informe del DRCF, las obligaciones de transparencia de la Ley de IA de la UE, el Consumer Duty de la FCA y las expectativas de minimización de datos de la ICO. Es una cuestión de la capa de datos, no de identidad.
La revelación de Anthropic de septiembre de 2025 lo ejemplificó de forma concreta. Un actor patrocinado por el Estado chino — designado GTG-1002 — usó herramientas Claude Code plus Model Context Protocol como orquestadores autónomos en unas 30 entidades, ejecutando entre el 80% y el 90% del trabajo táctico de una operación de ciberespionaje de varias etapas, con intervención humana solo en cuatro a seis puntos críticos por campaña. Todas esas acciones de agentes estaban autenticadas. La brecha fue un fallo de acceso a datos, no de autenticación.
La respuesta arquitectónica: gobernanza que vive con los datos
El patrón que emerge entre los riesgos del DRCF, las obligaciones basadas en riesgos de la Ley de IA de la UE, los requisitos de sistemas de gestión de ISO 42001 y la recomendación de confianza cero del WEF Global Cybersecurity Outlook 2026 es el mismo. El cumplimiento de agentes de IA debe imponerse en la capa de datos, no en la del modelo ni en la de identidad. Tres capacidades concretas definen este enfoque.
Control de acceso basado en atributos en tiempo de ejecución. En lugar de conceder a un agente acceso persistente a un repositorio, cada acción del agente se evalúa frente a una política dinámica que triangula atributos de datos (clasificación, jurisdicción, etiqueta de sensibilidad), atributos del usuario (el autorizador humano, su rol, su ubicación) y la acción intentada. La política decide — y la política es exigible, auditable y modificable sin reentrenar el modelo.
Registro inviolable a nivel de acción. Cada decisión del agente sobre cada activo de datos se registra con un historial completo de la evaluación de la política, los datos de entrada, los resultados y el autorizador humano. El registro es inviolable, exportable y estructurado para paquetes de evidencia que aceptará un regulador.
Una puerta de enlace gobernada entre agentes y datos. Los agentes no acceden directamente a los sistemas de datos. Acceden a un plano de gobernanza que aplica la política, ejecuta la directiva (bloquear, requerir aprobación, redactar, permitir con marca de agua) y transmite la solicitud. Incluso un agente manipulado por prompt no puede superar el límite de la política, porque el límite está fuera del agente.
Esta es la arquitectura sobre la que se construyen Kiteworks Compliant AI y el Kiteworks Secure MCP Server. También es la arquitectura que espera ISO 42001 para un sistema de gestión de IA, la que exige la Ley de IA de la UE para sistemas de alto riesgo y la que el informe del DRCF sugiere para toda empresa que implemente agentes. La convergencia es la clave.
Cómo Kiteworks operacionaliza los siete riesgos del DRCF
La Red de Datos Privados de Kiteworks trata el riesgo de cumplimiento de agentes de IA como un problema del plano de control, que se alinea directamente con el marco de responsabilidad del DRCF. El Motor de Políticas de Datos de Kiteworks aplica políticas dinámicas basadas en atributos en cada acceso a datos — ya sea por un agente, una integración, un usuario o un destinatario externo. El mismo motor genera registros de auditoría inviolables que cumplen la prueba de responsabilidad de las «muchas manos» al vincular cada acción del agente con su autorizador humano, la política que la rige y el activo de datos afectado.
Los datos del informe Kiteworks 2026 Forecast Report subrayan la importancia operativa de esto. La misma encuesta que documentó la brecha del 63% en limitación de propósito encontró que el 33% de las organizaciones carecen de registros de auditoría con calidad de evidencia — los registros que aceptaría un regulador bajo el Consumer Duty de la FCA, las expectativas de protección de datos de la ICO o las obligaciones de transparencia de la Ley de IA de la UE. Kiteworks cierra esa brecha al convertir la aplicación de políticas y la generación de auditoría en un solo flujo de trabajo. La Red de Datos Privados de Kiteworks produce paquetes de evidencia alineados con GDPR, HIPAA, CMMC 2.0, marcos de amenazas internas y externas bajo demanda, incluyendo el mapeo cruzado que el informe del DRCF anticipa que los reguladores del Reino Unido esperarán.
Lo más importante es que esta arquitectura no obliga a las organizaciones a frenar la adopción de IA. Gobierna los datos que los agentes pueden ver, sin importar el modelo, marco o plataforma en que se ejecute el agente. Eso es lo que significa el informe del DRCF cuando dice que la IA agente no queda fuera de los marcos legales existentes. Los marcos ya existen. El plano de control debe construirse.
Qué deben hacer los responsables de cumplimiento, legales y de seguridad antes del tercer trimestre
El informe del DRCF no establece política, pero la ICO ha anunciado un próximo Código de Prácticas legal sobre IA y toma de decisiones automatizada, la FCA sigue aplicando el Consumer Duty contra empresas cuyos sistemas de IA generan malos resultados y la CMA ha confirmado su interés en supervisar el comportamiento algorítmico. El periodo entre ahora y el próximo ciclo de supervisión es la ventana para adelantarse a estos riesgos.
Primero, trata los siete riesgos como una lista de verificación a nivel de junta directiva. El DRCF te dio el registro de riesgos. Pide a tu CCO, GC, CISO y CIO que confirmen por escrito — de forma separada — cuáles de los siete riesgos puede responder hoy la organización, cuáles no y cuál es la brecha. No aceptes «lo estamos trabajando» como respuesta en la matriz.
Segundo, audita la brecha entre las afirmaciones de gobernanza y la realidad de la contención. El informe Kiteworks 2026 Forecast Report encontró una brecha de 15 a 20 puntos entre la postura declarada de gobernanza de IA de las organizaciones y su capacidad real para restringir el comportamiento de los agentes. Cerrar esa brecha requiere pruebas — no simulaciones, sino intentos reales de terminar, redirigir y limitar a un agente implementado. La mayoría descubre que su interruptor de emergencia es solo teórico.
Tercero, vincula la actividad de los agentes a una trazabilidad inviolable antes de implementar algo nuevo. Antes de que el próximo agente entre en producción, el equipo responsable debe poder demostrar un registro completo de los datos que planea acceder, las políticas que rigen ese acceso y la trazabilidad de cada decisión que tomará. Si no es posible demostrarlo, el agente no está listo.
Cuarto, traslada la aplicación de la gobernanza del modelo a la capa de datos. Los datos del informe Kiteworks 2026 Forecast Report muestran que las organizaciones que dependen de filtros de prompts, barreras en modelos y controles solo de identidad son las mismas que reportan los puntajes más bajos de contención. El cambio arquitectónico es poner la política exigible donde están los datos — en cada lectura, cada escritura, cada compartición.
Quinto, prepara un paquete de evidencia ahora, no después de la investigación. Los reguladores no aceptarán «aún no tenemos esa información reunida». El paquete debe incluir el marco de políticas, el inventario de agentes, los registros de auditoría y el mapeo cruzado con GDPR, la Ley de IA de la UE, ISO 42001 y el marco sectorial relevante. Las empresas que entregan esto en cuestión de horas tras una solicitud son las que superan el proceso rápidamente.
El informe del DRCF es, en definitiva, una hoja de ruta gratuita. Úsala.
Preguntas frecuentes
El informe del DRCF deja claro que el Consumer Duty de la FCA aplica a los resultados generados por agentes de IA, sin importar su autonomía. Las empresas deben demostrar buenos resultados para el consumidor, valor justo y consentimiento informado real — los agentes que agrupan acciones o usan patrones oscuros no cumplen este estándar. El informe Kiteworks Data Security and Compliance Risk: 2026 Forecast Report encontró que el 63% de las organizaciones no puede imponer limitaciones de propósito a los agentes de IA — exactamente la brecha que genera exposición al Consumer Duty.
La evidencia requiere tres elementos: limitación de propósito documentada en la capa de datos, registros de auditoría inviolables de cada acción del agente y una capacidad de interruptor de emergencia que pueda activarse bajo demanda. Se espera que el Código de la ICO tenga peso probatorio en la supervisión, así que demuestra los controles ahora. El informe Kiteworks Data Security and Compliance Risk: 2026 Forecast Report encontró que solo el 40% de las organizaciones tiene actualmente interruptores de emergencia funcionales — el listón que los reguladores están a punto de elevar.
El estándar mínimo necesario de HIPAA, los requisitos de control de acceso y las obligaciones de auditoría aplican a todo acceso de agentes de IA a PHI — los riesgos del DRCF (protección de datos, responsabilidad fragmentada, agrupación de acciones) se suman a esto. Cada agente debe estar autenticado, limitado al menor privilegio posible y registrado a nivel de acción. El informe Kiteworks Data Security and Compliance Risk: 2026 Forecast Report encontró que el 33% de las organizaciones carece de registros de auditoría con calidad de evidencia — algo fatal tanto para la supervisión de cumplimiento HIPAA como para la prueba de responsabilidad del DRCF.
Es relevante porque los controles de acceso, auditoría e identificación de CMMC Nivel 2 exigen la misma gobernanza en la capa de datos que describe el informe del DRCF. Los agentes de IA que acceden a CUI deben cumplir simultáneamente con las familias de controles AC, AU e IA. El informe Kiteworks Data Security and Compliance Risk: 2026 Forecast Report encontró que solo el 46% de las organizaciones DIB se considera preparada para CMMC. La aplicación de ABAC en la capa de datos cumple varias familias de control con una sola arquitectura.
Comienza con una frase: la responsabilidad organizacional de cumplir la ley no cambia, sin importar la autonomía del agente de IA. Ese solo principio cambia el enfoque de todas las preguntas de gobernanza que hará la junta. Acompáñalo con el dato de la brecha — el informe Kiteworks Data Security and Compliance Risk: 2026 Forecast Report encontró que el 100% de las organizaciones tiene IA agente en su hoja de ruta, pero solo alrededor del 40% ha implementado interruptores de emergencia. La ventana de exposición está abierta y cerrándose lentamente.