No es la IA la que no es segura. Es el acceso que le das.

Hay una cifra en el informe State of AI in Enterprise Infrastructure Security 2026 de Teleport que debería hacer reflexionar a cualquier CISO: 4,5 veces.

Las organizaciones con sistemas de IA sobreprivilegiados tienen 4,5 veces más probabilidades de sufrir incidentes de seguridad que aquellas con controles de mínimo privilegio. No es el doble de probabilidad. No es una exposición moderada. Es cuatro veces y media. El informe lo señala como el factor más predictivo de incidentes relacionados con IA, incluso más que el sector en el que opera la organización, su nivel de madurez o su confianza declarada en la seguridad de la IA.

El CEO de Teleport, Ev Kontsevoy, lo expresó de forma directa: los datos son claros. No es la IA la que es insegura. Es el acceso que le estamos dando.

Esa afirmación replantea toda la conversación sobre seguridad en IA. El riesgo no es que los sistemas de IA sean intrínsecamente peligrosos. El riesgo es que las organizaciones implementan IA con derechos de acceso que ningún humano en un rol equivalente recibiría, y luego descubren, a través de incidentes, que el acceso sobreaprovisionado a velocidad de máquina genera consecuencias a escala de máquina.

5 conclusiones clave

  1. La IA sobreprivilegiada es el factor más predictivo de incidentes de seguridad. Las organizaciones donde los sistemas de IA tienen más derechos de acceso de los necesarios experimentan una tasa de incidentes del 76%. Las que cuentan con controles de mínimo privilegio reportan solo un 17%. Es una diferencia de 4,5 veces, y el informe de Teleport lo destaca como el factor más predictivo de incidentes relacionados con IA, por encima del sector, la madurez o la confianza declarada. La IA no es el problema. El acceso que las organizaciones le otorgan, sí.
  2. El 70% de los sistemas de IA tienen más acceso que un humano en el mismo rol. Casi tres cuartas partes de los encuestados afirmaron que sus sistemas de IA cuentan con más derechos de acceso que una persona que realiza tareas equivalentes. Un quinto dijo que su IA recibe significativamente más. No se trata de un sobreaprovisionamiento marginal. Es una falla estructural en la forma en que las organizaciones otorgan acceso a identidades no humanas, y crea las condiciones exactas para los incidentes documentados en el informe.
  3. El 85% de los líderes de seguridad están preocupados por los riesgos de la IA, basados en experiencia real, no en teoría. No es una preocupación hipotética. Un tercio de los encuestados confirmó al menos un incidente relacionado con IA. Otro 24% sospecha que pudo haber ocurrido uno. La preocupación está fundamentada en la realidad operativa: las organizaciones ven cómo la IA aporta mejoras reales de productividad —investigación de incidentes más rápida (66%), mejor documentación (71%), mayor rendimiento de ingeniería (65%)— mientras experimentan las consecuencias de seguridad de implementar IA con acceso excesivo.
  4. Las credenciales estáticas alimentan la escalada de privilegios en IA. Contraseñas, claves API y tokens de larga duración son el mecanismo por el que los sistemas de IA acumulan acceso excesivo. Las organizaciones con alta dependencia de credenciales estáticas reportan una tasa de incidentes del 67%, frente al 47% de las que dependen menos. Las credenciales estáticas no expiran, no se adaptan ni aplican decisiones de acceso contextuales. Son el modelo de credenciales de 2015 aplicado a la infraestructura de IA de 2026.
  5. El 64% de las organizaciones no tiene controles formales de gobernanza para la infraestructura de IA. El 43% de las organizaciones reportó no tener controles formales de gobernanza para la infraestructura de IA. Otro 21% dijo no tener ningún control. En conjunto, casi dos tercios de las organizaciones implementan IA en su infraestructura sin las estructuras de gobernanza necesarias para evitar sobreprivilegios, detectar incidentes o demostrar cumplimiento. La IA ya está implementada. Los controles, no.

El problema del acceso en cifras

Teleport encuestó a más de 200 líderes de seguridad de infraestructura en EE. UU. para elaborar el informe, definiendo la IA en infraestructura como cargas de trabajo potenciadas por IA, sistemas agentivos, comunicación máquina a máquina, ChatOps, automatización de cumplimiento y detección de incidentes. Los resultados muestran un sector que ha adoptado los beneficios de productividad de la IA, pero no ha gobernado el acceso que estos sistemas requieren.

El 70% de los encuestados afirmó que sus sistemas de IA tienen más derechos de acceso que un humano en el mismo rol. El 19% dijo que su IA recibe mucho más acceso. Cuando los sistemas de IA están sobreprivilegiados, la tasa de incidentes alcanza el 76%. Cuando existen controles de mínimo privilegio, baja al 17%. La diferencia no es incremental, es categórica.

Las credenciales estáticas —contraseñas, claves API y tokens de larga duración— son el principal mecanismo por el que ocurre este sobreprivilegio. Las organizaciones con alta dependencia de credenciales estáticas reportan una tasa de incidentes del 67%, frente al 47% de las que dependen menos. Las credenciales estáticas no expiran por sí solas, no se adaptan al contexto ni aplican limitaciones de propósito. Una vez emitidas, otorgan acceso persistente hasta que alguien recuerda revocarlas.

La brecha de gobernanza agrava el problema. El 43% de las organizaciones no tiene controles formales de gobernanza para la infraestructura de IA. Otro 21% no tiene ningún control. Eso significa que casi dos tercios de las organizaciones implementan IA en su entorno de infraestructura sin un enfoque estructurado para gestionar el acceso que reciben estos sistemas. Los sistemas de IA están en producción. Los marcos de gobernanza aún están en planificación.

Confías en que tu organización es segura. Pero ¿puedes verificarlo?

Leer ahora

La gestión de identidades en infraestructura es necesaria, pero no suficiente.

El informe de Teleport identifica correctamente que la gestión de identidades debe evolucionar para la IA. El 69% de los líderes de seguridad está de acuerdo. Pero la evolución necesaria es más profunda de lo que sugieren las recomendaciones del informe.

La gestión de identidades tradicional responde a la pregunta: ¿quién o qué es esta entidad y a qué sistemas puede acceder? Para los agentes de IA, esto implica gestionar la autenticación a servidores, APIs, bases de datos e infraestructura en la nube. Plataformas como Teleport abordan esta capa: gestionan identidades de agentes de IA, emiten credenciales y controlan el acceso a recursos de infraestructura.

Pero aquí está la brecha: un agente de IA con credenciales válidas de infraestructura y autenticación adecuada aún puede acceder a datos que no debería. El acceso a infraestructura y el acceso a datos no son lo mismo. Un agente de IA autenticado en un servidor de bases de datos puede, por defecto, consultar todas las tablas y registros de esa base de datos. Un agente de IA con acceso API a un repositorio de archivos puede, por defecto, leer todos los archivos. La identidad de infraestructura está verificada. El acceso a los datos no está gobernado.

Aquí es donde surge el multiplicador de 4,5 veces. IA sobreprivilegiada no significa IA con credenciales robadas o identidades comprometidas. Significa IA con acceso legítimo a infraestructura que contiene datos mucho más allá de lo que requiere su función. El incidente no comienza con un fallo de autenticación, sino con una autorización demasiado amplia.

Cerrar esta brecha requiere controles de acceso centrados en los datos que operen de forma independiente a la identidad de infraestructura. Incluso cuando un agente de IA tiene credenciales válidas para un sistema, los controles centrados en los datos definen a qué datos dentro de ese sistema puede acceder el agente, para qué propósito y bajo qué condiciones. Esta es la diferencia entre gestionar quién es la IA y gobernar qué puede hacer con los datos a los que accede.

Cómo son realmente los controles centrados en los datos para IA

Prevenir la sobreprivilegiación de la IA requiere controles que operen en la capa de datos, no solo en la de infraestructura. Esto significa lo siguiente en la práctica.

Acceso a datos de mínimo privilegio por defecto implica que un agente de IA autenticado en un sistema solo puede acceder a las clasificaciones de datos específicas que requiere para su función. Una IA de detección de incidentes puede acceder a registros del sistema, pero no a información personal identificable de clientes. Una IA de automatización de cumplimiento puede analizar metadatos de trazabilidad de auditoría, pero no los registros sensibles subyacentes. Un bot de ChatOps puede recuperar datos de estado operativo, pero no registros financieros. El límite de acceso se establece a nivel de datos, no a nivel de sistema.

Vinculación de propósito restringe a los agentes de IA a repositorios de datos y casos de uso específicos. El acceso de la IA no se define por los sistemas a los que puede llegar, sino por lo que debe hacer. Si una IA de detección de incidentes comienza a consultar registros financieros de clientes, ese acceso se bloquea y se señala, independientemente de que la IA tenga credenciales válidas para el sistema que aloja esos registros.

Verificación continua significa que cada solicitud de datos de la IA se reevalúa según las políticas vigentes. No es autenticar una vez y acceder a todos los datos para siempre. Cada consulta, cada recuperación, cada interacción con datos empresariales se verifica según el propósito autorizado de la IA, la clasificación de los datos solicitados y el contexto de riesgo actual. Así se evita la escalada de privilegios que ocurre cuando los sistemas de IA acumulan acceso con el tiempo sin la gobernanza correspondiente.

Detección de anomalías supervisa el comportamiento de los agentes de IA para identificar cuando los patrones de acceso se desvían de las bases establecidas. Si un agente de IA que normalmente procesa 50 registros por hora de repente solicita 5.000, o si una herramienta de automatización de cumplimiento accede a categorías de datos fuera de su alcance definido, la desviación activa alertas automáticas y puede activar interruptores de emergencia que revocan de inmediato el acceso del agente a los datos.

Registros de auditoría integrales documentan cada interacción de la IA con datos empresariales: qué se accedió, cuándo, por qué agente de IA, bajo la autorización de quién y qué acciones se tomaron. Estos registros no son solo para informes de cumplimiento, sino la base forense que permite la investigación de incidentes más rápida (66%) y la mejor documentación (71%) que el informe de Teleport identifica como beneficios clave de la IA. No puedes investigar un incidente de IA que no puedes ver.

Aplicación de controles centrados en los datos en los casos de uso de infraestructura de IA

El informe de Teleport define la infraestructura de IA de forma amplia: cargas de trabajo potenciadas por IA, sistemas agentivos, comunicación máquina a máquina, ChatOps, automatización de cumplimiento y detección de incidentes. Cada uno de estos casos de uso genera requisitos específicos de acceso a datos y riesgos concretos de sobreprivilegio.

Cargas de trabajo potenciadas por IA necesitan acceso a repositorios de datos empresariales para funcionar. Los controles centrados en los datos crean un puente seguro entre la carga de trabajo y los datos, aplicando políticas de acceso de confianza cero que limitan la carga de trabajo a las clasificaciones de datos que requiere su función. La carga de trabajo opera a velocidad de máquina. Los controles de acceso funcionan a la misma velocidad.

Sistemas de IA agentivos —agentes autónomos capaces de ejecutar procesos de varios pasos, interactuar con APIs y tomar decisiones operativas— presentan el mayor riesgo de sobreprivilegio porque actúan sobre los datos, no solo los analizan. Cada agente crea una identidad no humana que requiere autenticación, autorización y supervisión continua. Los controles centrados en los datos aseguran que la IA agentiva herede los permisos de su principal humano autorizador y no pueda escalar más allá de esos límites.

La comunicación máquina a máquina y ChatOps crea canales de intercambio de datos que operan sin supervisión humana directa en cada interacción. Los controles centrados en los datos aseguran que estos canales respeten las políticas de acceso a datos sin importar la velocidad o el volumen de solicitudes. Cuando un bot de Slack o Teams accede a datos empresariales en nombre de un usuario, la conciencia del contexto de usuario garantiza que el bot herede los permisos de datos de ese usuario, y no el acceso amplio a nivel de sistema que pueda tener la cuenta de servicio del bot.

La automatización de cumplimiento y la detección de incidentes son los casos de uso donde el sobreprivilegio suele justificarse. El argumento es que estos sistemas necesitan acceso amplio para funcionar eficazmente. La realidad es que requieren acceso a metadatos de trazabilidad, métricas agregadas y registros del sistema, no acceso directo a los datos sensibles subyacentes. Una herramienta de automatización de cumplimiento puede analizar patrones de acceso a datos sin leer los registros de pacientes que describen esos patrones. Un sistema de detección de incidentes puede identificar comportamientos anómalos sin descargar los datos financieros relacionados.

El problema de las credenciales estáticas es un problema de datos

El informe de Teleport identifica las credenciales estáticas —contraseñas, claves API y tokens de larga duración— como un factor clave de la sobreprivilegiación en IA. Las organizaciones con alta dependencia de credenciales estáticas reportan una tasa de incidentes del 67%. El informe recomienda reducir la dependencia de credenciales estáticas como medida clave para minimizar riesgos.

Esta recomendación es correcta, pero incompleta. Reemplazar credenciales estáticas por credenciales dinámicas y de corta duración resuelve el problema de autenticación en infraestructura. Asegura que los agentes de IA prueben su identidad con mayor frecuencia y que las credenciales expiren antes de poder ser mal utilizadas. Pero las credenciales dinámicas por sí solas no resuelven el problema de acceso a datos. Un agente de IA con un token de infraestructura recién emitido y correctamente acotado aún puede acceder a todos los registros de datos del sistema para el que ese token otorga acceso.

La solución completa requiere superponer controles centrados en los datos sobre una mejor gestión de credenciales. Las credenciales dinámicas gobiernan el acceso a la infraestructura. La clasificación de datos y la vinculación de propósito gobiernan a qué datos puede llegar la IA dentro de esa infraestructura. La verificación continua asegura que las políticas de acceso a datos se apliquen en cada solicitud. Los registros de auditoría documentan toda la cadena, desde la emisión de credenciales hasta el acceso a la infraestructura y la recuperación de datos, creando la visibilidad necesaria para detectar e investigar incidentes.

Este enfoque por capas —gestión de identidades de infraestructura más controles de acceso centrados en los datos— es lo que reduce el multiplicador de incidentes de 4,5 veces. Ninguna capa por sí sola es suficiente. La identidad de infraestructura sin controles de datos deja abierta la brecha de sobreprivilegio en la capa de datos. Los controles de datos sin identidad de infraestructura dejan la brecha de autenticación en la capa de sistema. La defensa en profundidad requiere ambas.

Qué deben hacer los líderes de seguridad ahora

Implementa el acceso a datos de mínimo privilegio para cada sistema de IA actualmente en producción. Audita a qué datos puede acceder cada agente de IA hoy. Compara ese acceso con lo que realmente necesita para su función definida. Restringe el acceso a las clasificaciones de datos mínimas necesarias. Esta sola acción aborda el factor que el informe identifica como el más predictivo de incidentes.

Implementa controles de acceso centrados en los datos que operen de forma independiente a la identidad de infraestructura. Incluso cuando los agentes de IA tienen credenciales válidas de infraestructura, los controles centrados en los datos deben definir a qué datos pueden acceder, para qué propósito y bajo qué condiciones. La vinculación de propósito, el control de acceso basado en atributos y la verificación continua en la capa de datos cierran la brecha que la gestión de identidad de infraestructura por sí sola no puede cubrir.

Reemplaza las credenciales estáticas por credenciales dinámicas y de corta duración, y superpone controles de datos. Elimina contraseñas, claves API de larga duración y tokens persistentes para sistemas de IA. Cambia a la emisión de credenciales dinámicas con expiración automática. Pero reconoce que la reforma de credenciales por sí sola no resuelve el problema de acceso a datos. Superpón la clasificación de datos, la vinculación de propósito y la verificación continua para gobernar lo que hace la IA con el acceso que le otorgan sus credenciales.

Construye marcos de gobernanza antes de que el próximo sistema de IA entre en producción. El 64% de las organizaciones no tiene controles formales de gobernanza para la infraestructura de IA. Cada nueva implementación de IA sin gobernanza amplía la brecha de sobreprivilegio. Establece políticas claras para el acceso a datos de IA, define rutas de escalamiento para incidentes relacionados con IA y asigna responsables explícitos para la administración de riesgos de IA. El marco de gobernanza debe estar en funcionamiento antes de que el sistema de IA reciba su primera credencial.

Implementa detección de anomalías e interruptores de emergencia para el acceso a datos de IA. Supervisa continuamente el comportamiento de los agentes de IA en comparación con las bases establecidas. Cuando los patrones de acceso se desvíen —volúmenes de datos inusuales, nuevas categorías de datos, actividad fuera de horario— activa alertas automáticas y ten la capacidad de revocar el acceso de la IA a los datos de inmediato. El multiplicador de incidentes de 4,5 veces significa que detectar comportamientos sobreprivilegiados de IA a tiempo vale más que cualquier otro control individual.

Crea registros de auditoría que documenten toda la cadena de acceso a datos de IA. Cada interacción de IA con datos empresariales debe quedar registrada con la identidad del agente de IA, el principal humano autorizador, la clasificación de los datos accedidos, la marca de tiempo y la acción realizada. Estos registros respaldan la investigación de incidentes más rápida y la mejor documentación que el informe identifica como beneficios clave de la IA, además de proporcionar la evidencia forense necesaria cuando ocurren incidentes y la documentación de cumplimiento que exigen los reguladores.

El multiplicador de 4,5x es una elección, no una inevitabilidad

El informe de Teleport arroja una conclusión tan incómoda como esclarecedora: las organizaciones que sufren más incidentes de seguridad en IA no son las que más implementan IA, sino las que otorgan más acceso a la IA. El sobreprivilegio, no la adopción, es el factor de riesgo.

Esto significa que el multiplicador de incidentes de 4,5 veces es una elección. Las organizaciones que implementan acceso a datos de mínimo privilegio, aplican controles centrados en los datos junto con la gestión de identidad de infraestructura, reemplazan credenciales estáticas, construyen marcos de gobernanza y supervisan continuamente el comportamiento de la IA operarán en el rango del 17% de incidentes. Las que implementan IA con acceso amplio, credenciales estáticas y sin gobernanza operarán en el 76%.

Los beneficios de productividad son reales. Investigación de incidentes más rápida. Mejor documentación. Mayor rendimiento de ingeniería. Ninguna organización debería renunciar a estas ventajas. La Red de Contenido Privado de Kiteworks proporciona la capa de gobernanza centrada en los datos —vinculación de propósito, verificación continua, registros de auditoría inmutables y detección de anomalías— que las plataformas de identidad de infraestructura por sí solas no pueden ofrecer. Pero para aprovecharlos sin aceptar tasas de incidentes 4,5 veces mayores, se requiere un cambio fundamental en la forma en que las organizaciones piensan el acceso de IA: de la capa de infraestructura a la capa de datos, de credenciales estáticas a verificación continua y de la gobernanza como un añadido a la gobernanza como requisito previo.

La IA no es insegura. El acceso que le das, sí. Corrige el acceso y corriges el riesgo.

Para descubrir cómo Kiteworks puede ayudarte, solicita una demo personalizada hoy mismo.

Preguntas frecuentes

El acceso a infraestructura controla a qué sistemas, APIs y servidores puede llegar un agente de IA, gestionado mediante plataformas de gestión de identidades y acceso que autentican agentes y emiten credenciales. El acceso a datos controla qué información puede recuperar el agente dentro de esos sistemas. La brecha crítica es que una credencial válida de infraestructura otorga acceso por defecto a todos los datos de un sistema. Un agente de IA autenticado en una base de datos puede consultar todas las tablas; un agente con acceso API a un repositorio de archivos puede leer todos los archivos. El multiplicador de incidentes de 4,5x del informe de Teleport surge justamente aquí: IA con acceso legítimo a infraestructura llegando a datos mucho más allá de lo que requiere su función. Cerrar esta brecha implica superponer controles centrados en los datos —vinculación de propósito, control de acceso basado en atributos, verificación continua— sobre la gestión de identidades de acceso en infraestructura, no en lugar de ella.

La vinculación de propósito es un control centrado en los datos que define el acceso de un agente de IA no por los sistemas a los que puede autenticarse, sino por lo que está diseñado para hacer. Un agente de automatización de cumplimiento accede a metadatos de trazabilidad de auditoría y métricas agregadas, no a los registros de pacientes o datos financieros que describen esos logs. Una IA de detección de incidentes accede a registros del sistema, no a información personal identificable de clientes ni a archivos de configuración de ingeniería. Si el agente intenta consultar datos fuera de su propósito definido, incluso con credenciales válidas de infraestructura, esa solicitud se bloquea y se señala. Así se evita la escalada de privilegios que ocurre cuando los sistemas de IA acumulan acceso con el tiempo y se elimina la justificación de que las herramientas de cumplimiento o detección necesitan acceso amplio para funcionar eficazmente. No lo necesitan. Necesitan acceso a los datos correctos, acotados estrictamente a su función.

Las credenciales estáticas —contraseñas, claves API y tokens de larga duración— permiten la escalada de privilegios en IA de dos formas. Primero, no expiran, lo que significa que el acceso otorgado en la implementación persiste indefinidamente a menos que se revoque manualmente, algo poco frecuente a medida que evolucionan los sistemas de IA. Segundo, normalmente se acotan al emitirse y nunca se revisan, incluso si la función del agente de IA se reduce o cambia. Las organizaciones con alta dependencia de credenciales estáticas reportan una tasa de incidentes del 67% frente al 47% de las que dependen menos. El reemplazo es la emisión de credenciales dinámicas y de corta duración con expiración automática, asegurando que los agentes de IA se reautenticen con frecuencia y que las credenciales no persistan más allá de su ventana de uso prevista. Pero la reforma de credenciales por sí sola no resuelve el problema de acceso a datos: un agente de IA con un token dinámico recién emitido aún puede acceder a todos los registros del sistema para el que está autenticado. Las credenciales dinámicas deben combinarse con vinculación de propósito y controles de prevención de pérdida de datos que gobiernen a qué datos puede llegar el agente dentro de esa infraestructura.

Los bots de ChatOps y la IA máquina a máquina presentan un reto de gobernanza específico: ejecutan a velocidad de máquina a través de muchas interacciones, haciendo inviable la revisión humana de cada solicitud. El modelo de gobernanza debe pasar de la aprobación humana por interacción a la aplicación automática de políticas de acceso predefinidas. Cada bot o agente debe tener una identidad no humana distinta con un alcance de propósito definido; el límite de acceso se establece en la implementación y se aplica automáticamente en cada solicitud. La herencia de contexto de usuario es clave: cuando un bot de Slack o Teams accede a datos empresariales en nombre de un usuario, debe heredar los permisos de datos de ese usuario, no el acceso amplio a nivel de sistema que tenga la cuenta de servicio del bot. Los principios de confianza cero aplican directamente: cada solicitud de datos se trata como no confiable hasta ser verificada según la política vigente, sin importar el comportamiento previo del agente. Los registros de auditoría inmutables que capturan cada interacción proporcionan la capa de supervisión humana que no puede darse en tiempo real.

Un registro de auditoría de IA que cumpla tanto con obligaciones de cumplimiento como con necesidades forenses debe capturar seis elementos en cada interacción IA-datos: la identidad del agente de IA (qué agente hizo la solicitud), el principal humano autorizador (bajo los permisos de quién actuaba el agente), la clasificación de los datos accedidos (qué categoría y sensibilidad de datos se recuperó), la marca de tiempo y duración, la acción realizada (lectura, escritura, modificación, transmisión) y el destino si los datos salieron del sistema. Este nivel de detalle permite la investigación de incidentes más rápida que el informe de Teleport identifica como un beneficio clave de productividad en IA: puedes reconstruir exactamente qué accedió un agente comprometido o malicioso y cuándo. También proporciona la documentación de cumplimiento que exigen los reguladores: bajo GDPR, HIPAA y marcos como NIST 800-53, demostrar que los sistemas de IA operaron dentro de los límites autorizados requiere registros, no afirmaciones. Las organizaciones que usan la puerta de enlace de datos IA de Kiteworks generan estos registros de forma continua e inmutable en cada interacción de IA con datos empresariales.

Recursos adicionales

  • Artículo del Blog Arquitectura Zero Trust: Nunca confíes, verifica siempre
  • Video Microsoft GCC High: Desventajas que impulsan a los contratistas de defensa hacia ventajas más inteligentes
  • Artículo del Blog Cómo proteger datos clasificados una vez que DSPM los identifica
  • Artículo del Blog Cómo generar confianza en la IA generativa con un enfoque Zero Trust
  • Video La guía definitiva para el almacenamiento seguro de datos sensibles para líderes de TI

Comienza ahora.

Es fácil comenzar a asegurar el cumplimiento normativo y gestionar eficazmente los riesgos con Kiteworks. Únete a las miles de organizaciones que confían en cómo intercambian datos confidenciales entre personas, máquinas y sistemas. Empieza hoy mismo.

Table of Content
Compartir
Twittear
Compartir
Explore Kiteworks