Gartner acaba de decir lo que todos pensábamos sobre la gobernanza de IA

Llevo leyendo informes de Gartner desde hace más tiempo del que me gustaría admitir. La mayoría confirman lo que los profesionales ya sospechan. Algunos desafían ciertas suposiciones. Y de vez en cuando, aparece uno que te hace parar y pensar: por fin, alguien lo dijo en voz alta.

El informe de diciembre de 2025 de Avivah Litan, Max Goss y Lauren Kornutick, «Las empresas deben complementar Microsoft Purview y Agent 365 con controles independientes de IA TRiSM», es de ese tipo.

El título ya es llamativo. Gartner no dice que las nuevas capacidades de gobernanza de datos de IA de Microsoft sean malas. Dice que son insuficientes. Y lo explican de forma bastante directa.

El problema del lock-in del que nadie quiere hablar

El enfoque de Microsoft para la gobernanza de IA funciona muy bien si vives completamente dentro del ecosistema de Microsoft. Entra Agent ID, los nuevos agentes de Purview AI, el panel de seguridad, son avances legítimos. Lo digo sinceramente.

Pero Gartner señala algo que debería ser obvio, aunque aparentemente no lo es: las funciones más profundas de auditoría y protección requieren que los agentes estén registrados en Entra ID. ¿No están registrados? Como mucho, tienes visibilidad básica. Y el registro es voluntario. Sin controles de acceso adecuados, vas a ciegas.

Piénsalo un momento. Tu estrategia de protección de datos de IA depende de que los agentes de IA se registren voluntariamente.

El informe también indica que al menos el 50% de las organizaciones mantienen licencias E3 para muchos empleados, mientras que los controles avanzados de Purview históricamente han requerido E5. Así que incluso dentro del propio ecosistema de Microsoft, hay una brecha de gobernanza basada en el nivel de licencia. Eso se siente… problemático.

De hecho, pensándolo mejor, no es solo problemático, crea una postura de seguridad de dos niveles dentro de la misma organización. Algunos usuarios tienen IA gobernada; otros no. Cumplir con los requisitos de cumplimiento normativo se vuelve casi imposible en esas condiciones. Ese modelo no es sostenible.

«Las protecciones del proveedor terminan en sus propios límites»

Probablemente esta es la frase más importante de todo el informe. Gartner afirma claramente que ningún proveedor de nube puede imponer control en tiempo de ejecución sobre agentes de IA una vez que operan en el entorno de otro proveedor. Microsoft no puede gobernar lo que ocurre en AWS. AWS no puede gobernar lo que ocurre en Azure. Nadie gobierna lo que ocurre en entornos locales a menos que pongas ahí algo que lo haga.

Llevo años diciendo versiones de esto sobre gobernanza de datos y soberanía de datos en general, así que reconforta ver que Gartner aplica la misma lógica a los agentes de IA. Pero también preocupa lo pocas organizaciones que parecen estar conectando estos puntos.

Cuando tus datos confidenciales salen del tenant de Microsoft, y saldrán, porque así funciona el negocio, los controles de Purview no los acompañan. ¿Tus etiquetas de sensibilidad MIP? Son metadatos. Son instrucciones. Pero sin algo que haga cumplir esas instrucciones en el destino, sin controles DRM adecuados, son solo… etiquetas.

El concepto de agente guardián

Gartner introduce la idea de «agentes guardianes independientes» que pueden supervisar agentes de IA en diferentes plataformas y nubes. Incluso incluyen un diagrama donde los agentes guardianes se sitúan por encima de los marcos de agentes específicos de cada plataforma, proporcionando supervisión a nivel empresarial.

Lo que me llama la atención de este planteamiento es lo bien que encaja con lo que hemos estado construyendo con el concepto de Red de datos privados. No porque pensáramos específicamente en agentes de IA, no era así, al menos al principio, sino porque el problema de fondo es el mismo: ¿cómo gobiernas los datos confidenciales cuando pasan por sistemas que no controlas?

Nuestra respuesta ha sido: crea una capa de aplicación independiente. No dependas de la plataforma de origen para gobernar los datos. No dependas de la plataforma de destino. Pon la gobernanza en el medio, donde puedes aplicar políticas consistentes sin importar el origen o destino. Este enfoque de seguridad de confianza cero asegura que la protección viaje con los datos.

Ahora que lo pienso, esto es exactamente lo que Gartner describe para la gobernanza de IA. Solo usan un vocabulario diferente.

Lo que realmente importa para la gobernanza de agentes de IA

Déjame ser específico sobre lo que creo que las organizaciones necesitan, basándome en este informe y en las conversaciones que hemos tenido con CISOs durante el último año. La visibilidad del panel de CISO que ofrecemos refleja estas mismas prioridades.

Primero, necesitas autenticación e identidad que funcionen en todas las plataformas. Construimos nuestro MCP Server con OAuth 2.0 precisamente porque los agentes de IA que acceden a datos empresariales requieren verificación IAM adecuada y MFA. Siempre. Cada vez. Y esas credenciales nunca, no puedo enfatizarlo lo suficiente, nunca deben exponerse al contexto del LLM. Los ataques de inyección de prompts son reales y solo se volverán más sofisticados.

Segundo, necesitas aplicación de políticas que opere en tiempo de ejecución, no solo al momento de la configuración. No basta con establecer una política y esperar que se cumpla. Cada acceso a datos debe evaluarse según las condiciones actuales: quién es el usuario, dónde está, cuál es la sensibilidad de los datos, qué acción intenta realizar. Eso es ABAC (control de acceso basado en atributos), y debe ocurrir en tiempo real. Solo RBAC no es suficiente para este nivel de granularidad.

Tercero, y aquí me apasiono un poco, necesitas registros de auditoría que realmente capturen todo. Un historial de auditoría completo no es negociable. El informe menciona que Microsoft 365 puede retrasar la entrada de registros hasta 72 horas y limita el registro durante periodos de alta actividad. Justo en esos momentos necesitas registros completos. Los ataques generan picos de actividad. Si tu registro se limita durante esos picos, vas a ciegas cuando más importa.

La realidad de la amenaza interna

Gartner dedica un espacio importante a las amenazas internas, señalando que los insiders sofisticados aún pueden exfiltrar datos mediante agentes de IA no autorizados, pausando el cliente GSA, usando dispositivos no gestionados o ejecutando agentes no registrados. Por eso es fundamental contar con una capacidad robusta de respuesta a incidentes.

Esto me resulta familiar porque coincide con lo que escuchamos de los clientes. La amenaza externa recibe toda la atención, pero el riesgo interno, sea malicioso o accidental, es una exposición significativa y a menudo subestimada. Las estrategias efectivas de DLP deben contemplar ambos casos. Y los agentes de IA crean nuevos vectores. Un insider que podría dudar en enviarse por correo un documento confidencial quizá no lo piense dos veces antes de pedirle a un asistente de IA que «ayude a analizar» ese documento y exportar los resultados.

Nuestro enfoque ha sido asumir la brecha y diseñar en consecuencia. SafeVIEW permite ver datos sin poseerlos, el archivo nunca se descarga, solo se visualiza un stream de imagen con marca de agua. SafeEDIT es similar para la edición: el documento permanece en nuestros servidores, el usuario edita mediante video en streaming de un escritorio virtual. Este enfoque de edición sin posesión significa que, incluso si alguien está comprometido, los datos no salen del entorno controlado.

¿Esto genera fricción? Sí. Pero es la fricción adecuada para datos confidenciales. Una clasificación de datos correcta, combinada con el Data Policy Engine, decide dinámicamente cuándo se aplica esa fricción según los datos, el usuario y el contexto.

No ser Microsoft

Quiero dejar algo claro: no estoy en contra de Microsoft. Nos integramos ampliamente con Microsoft. Nuestros clientes usan SharePoint, OneDrive y Outlook a través de nuestro plugin de Microsoft Office 365. Propagamos etiquetas de sensibilidad MIP y aplicamos políticas basadas en ellas.

Pero Gartner tiene razón al decir que depender completamente de Microsoft para la gobernanza crea desafíos en la administración de riesgos de seguridad. No porque Microsoft haga algo mal, sino porque ningún proveedor puede gobernar todo. El lenguaje del informe merece citarse: «Solo una capa neutral y confiable de agentes guardianes podría imponer el registro universal y el enrutamiento para cerrar la brecha que ningún proveedor puede solucionar por sí solo».

Eso es lo que intentamos ser. No un reemplazo de las capacidades de gobernanza de Microsoft, sino una ampliación. Una capa que extiende esas capacidades más allá del tenant, hacia la colaboración externa mediante el uso compartido seguro de archivos de Kiteworks, hacia sistemas de IA de terceros a través de nuestra puerta de enlace de datos IA, hacia la realidad compleja de cómo operan realmente las organizaciones.

Lo que aún no tengo claro

No tengo todas las respuestas aquí. El espacio de gobernanza de riesgos de IA avanza rápido, más rápido de lo que cualquiera puede seguir. Las capacidades en vista previa de Microsoft llegarán a GA eventualmente. Otras plataformas desarrollarán sus propios enfoques. El Model Context Protocol que implementa nuestro MCP Server viene de Anthropic, y apostamos a que se convertirá en estándar, pero podría equivocarme.

De lo que sí estoy seguro es del principio arquitectónico: capas de gobernanza independientes que no dependan de ningún proveedor para la aplicación. Un enfoque real de arquitectura de confianza cero parece lo correcto, sin importar cómo evolucionen las tecnologías específicas.

Y estoy seguro de que las organizaciones que se toman en serio la gobernanza de IA y el cumplimiento de datos ahora, antes de que una brecha las obligue, estarán en mucha mejor posición que aquellas que esperan que los proveedores lo resuelvan por ellas.

La conversación con los analistas

Hablando de eso, si estás leyendo esto y tienes acceso a estos analistas de Gartner, te animo a conversar con ellos sobre este tema. Avivah Litan, en particular, lleva mucho tiempo pensando en el riesgo de IA y TPRM, y el marco TRiSM es un trabajo sustantivo. Planeamos informar a los tres analistas sobre cómo estamos abordando estos problemas, y sospecho que esas conversaciones influirán en nuestra hoja de ruta de formas que no puedo predecir.

Así es como debería funcionar, creo. Los proveedores que solo hablan con los analistas cuando quieren cobertura no han entendido el punto. El verdadero valor está en el diálogo.

Y para saber más sobre cómo Kiteworks resuelve estos desafíos, contáctanos o agenda una demo personalizada hoy mismo.

Comienza ahora.

Es fácil comenzar a asegurar el cumplimiento normativo y gestionar eficazmente los riesgos con Kiteworks. Únete a las miles de organizaciones que confían en cómo intercambian datos confidenciales entre personas, máquinas y sistemas. Empieza hoy mismo.

Table of Content
Compartir
Twittear
Compartir
Explore Kiteworks