La paradoja de la seguridad en la IA agente: por qué implementar IA para defender tu organización podría convertirse en tu mayor vulnerabilidad

Aquí está la trampa de la que casi nadie habla.

Los equipos de seguridad necesitan agentes de IA para defenderse de ataques impulsados por IA. Pero implementar esos agentes crea exactamente los riesgos de exposición de datos que buscan evitar.

No es una hipótesis. Es un hallazgo. El Informe sobre el Estado de la Ciberseguridad 2026 de Ivanti: Cerrando la Brecha, basado en las opiniones de más de 1,200 profesionales de ciberseguridad en todo el mundo, revela que el 87% de los equipos de seguridad considera prioritaria la integración de IA agente. El setenta y siete por ciento se siente cómodo permitiendo que sistemas autónomos actúen sin revisión humana. El apetito por la defensa impulsada por IA es enorme.

Pero el mismo informe expone el otro lado de la moneda. Las organizaciones carecen de procesos y habilidades para operacionalizar la IA de forma segura. La prisa por implementar IA para defensa —impulsada por amenazas crecientes, fatiga de alertas, escasez de talento y herramientas fragmentadas— va más rápido que la gobernanza necesaria para evitar que se convierta en el problema que debía resolver.

Daniel Spicer, CSO de Ivanti, lo define como el «Déficit de Preparación en Ciberseguridad»: una brecha persistente y creciente año tras año entre las amenazas que enfrentan las organizaciones y su capacidad para defenderse. La promesa de la IA debería cerrar esa brecha. Sin gobernanza, la amplía.

5 conclusiones clave

  1. El 87% de los equipos de seguridad prioriza la IA agente, pero no puede operacionalizarla de forma segura. El Informe sobre el Estado de la Ciberseguridad 2026 de Ivanti, que encuestó a más de 1,200 profesionales de ciberseguridad en todo el mundo, encontró que el 87% de los equipos de seguridad considera prioritaria la integración de IA agente. Sin embargo, el mismo informe revela una brecha crítica: la mayoría de las organizaciones carece de procesos y habilidades para implementar agentes de IA de manera segura. El entusiasmo supera con creces la preparación.
  2. Los agentes de IA de seguridad necesitan acceso a los datos más peligrosos de tu organización. Para ser efectivos, los agentes de IA de seguridad requieren acceso a registros de seguridad, resultados de escaneos de vulnerabilidades, inteligencia de amenazas, datos de identidad y acceso, topología de red y registros de respuesta a incidentes. Esta es exactamente la información que los atacantes usarían para mapear toda tu postura defensiva. Dar acceso a un agente de IA a estos datos sin gobernanza es como entregar a un desconocido el plano de tu bóveda.
  3. El Déficit de Preparación en Ciberseguridad se amplía, no se reduce. Ivanti identifica un «Déficit de Preparación en Ciberseguridad»: una brecha persistente y creciente año tras año entre las amenazas que enfrentan las organizaciones y su capacidad para defenderse. El 77% de las organizaciones ya ha sido objetivo de ataques con deepfakes, pero solo el 27% se considera muy preparada. La distancia entre la conciencia del riesgo y la preparación real es de 21 puntos.
  4. Los equipos de TI y seguridad trabajan en direcciones opuestas. Casi la mitad (48%) de los profesionales de seguridad afirma que los equipos de TI no responden con urgencia a las preocupaciones de ciberseguridad, mientras que el 40% cree que TI no comprende la tolerancia al riesgo de la organización. Esta brecha es especialmente dañina cuando los agentes de IA requieren una gobernanza transversal que depende de la colaboración entre TI y seguridad.
  5. El agotamiento es una vulnerabilidad sistémica, no solo un problema de personas. El 43% de los profesionales de seguridad reporta altos niveles de estrés y el 79% dice que afecta su salud física y mental. La falta de talento calificado es la principal barrera para la excelencia en ciberseguridad. Este es el equipo que debería gobernar los agentes de IA de forma segura, pero ya está al límite.

A qué necesitan realmente acceso los agentes de IA de seguridad — y por qué debería preocuparte

Piénsalo: ¿qué necesita un agente de IA de seguridad para hacer su trabajo? No es un chatbot de productividad que resume notas de reuniones. No es una herramienta de marketing que redacta correos. Es un agente de seguridad — diseñado para detección de amenazas, respuesta a incidentes o gestión de vulnerabilidades.

Necesita acceso a tus registros de seguridad y datos de SIEM: registros de firewall, alertas de detección de intrusiones, registros de autenticación, telemetría de endpoints. Si se exponen, los atacantes sabrán qué puedes y no puedes detectar. Necesita resultados de escaneos de vulnerabilidades: sistemas sin parches, configuraciones incorrectas, debilidades explotables. Si se exponen, es una hoja de ruta completa para los atacantes. Necesita inteligencia de amenazas: indicadores de compromiso, tácticas y técnicas, manuales de respuesta a incidentes. Si se exponen, los atacantes conocerán tus capacidades defensivas y puntos ciegos. Necesita datos de identidad y acceso: cuentas de usuario, credenciales privilegiadas, patrones de acceso, métodos de autenticación. Si se exponen, los atacantes tendrán rutas claras para el robo de credenciales y la escalada de privilegios. Y necesita topología de red: diagramas de red, sistemas críticos, mapas de flujo de datos, límites de segmentación. Si se exponen, los adversarios tendrán un mapa completo de la superficie de ataque.

Este es el gran dilema en los hallazgos de Ivanti. El 87% de los equipos de seguridad quiere dar acceso a los agentes de IA a estos datos — la información más sensible de la organización — para mejorar la detección y respuesta ante amenazas. Pero la mayoría carece de la gobernanza necesaria para hacerlo sin crear exactamente la exposición que buscan evitar.

Si un agente de IA de seguridad se ve comprometido o está mal configurado, no solo filtra registros de clientes o datos financieros. Expone toda tu postura defensiva. Un atacante que compromete un agente de seguridad obtiene las llaves del reino: lo que puedes detectar, lo que no, dónde están tus sistemas vulnerables y cómo respondes a incidentes. Puede aprender de tus brechas pasadas para mejorar sus ataques futuros.

Confías en que tu organización es segura. Pero ¿puedes verificarlo?

Leer ahora

Desafío dual de agentes de IA: el riesgo empresarial se cruza con el riesgo de seguridad

El informe de Ivanti llega en un momento en que las organizaciones ya luchan por gobernar los agentes de IA en el ámbito empresarial. El informe Cyber Pulse de Microsoft confirma que más del 80% de las empresas Fortune 500 implementan agentes de IA activos y advierte que estos agentes «se escalan más rápido de lo que algunas empresas pueden verlos». El informe Data Security Landscape 2025 de Proofpoint describe un «espacio de trabajo agente» que la mayoría de las organizaciones no puede gobernar ni controlar. Y Proofpoint encontró que el 32% de las organizaciones considera el acceso no supervisado de agentes de IA a datos como una amenaza crítica.

Ahora suma un segundo frente. Las organizaciones están implementando agentes de IA para operaciones de seguridad — detección de amenazas, respuesta a incidentes, gestión de vulnerabilidades — con requisitos de acceso a datos y perfiles de riesgo completamente distintos.

Los agentes de IA empresariales acceden a registros de clientes, datos financieros, propiedad intelectual y contratos. El riesgo es la exfiltración de datos a modelos públicos de IA, shadow AI y ataques de inyección de prompts. Los agentes de IA de seguridad acceden a registros, inteligencia de amenazas, vulnerabilidades, identidades y arquitectura de red. El riesgo es la exposición de toda tu postura de seguridad, el mapeo de la superficie de ataque para adversarios y la filtración de credenciales.

El problema que se agrava: la mayoría de las organizaciones implementa agentes de IA en ambos ámbitos sin una gobernanza unificada en ninguno. El área de negocio tiene sus propias brechas de gobernanza. El área de seguridad tiene las suyas. Y rara vez se comunican entre sí — una dinámica que los propios datos de Ivanti confirman, con un 48% de profesionales de seguridad diciendo que TI no responde con urgencia a las preocupaciones de ciberseguridad y un 40% creyendo que TI no comprende la tolerancia al riesgo de la organización.

Fatiga de alertas, escasez de talento y presión para automatizar

El informe de Ivanti explica exactamente por qué los equipos de seguridad avanzan tan rápido hacia la IA agente — y por qué esa velocidad en sí misma genera riesgo.

La fatiga de alertas está aplastando las operaciones de seguridad. Los equipos están abrumados por el volumen de alertas que deben clasificar, investigar y atender. El 92% de los encuestados afirma que la automatización reduce el tiempo medio de respuesta de su equipo. Los agentes de IA capaces de clasificar alertas, correlacionar inteligencia de amenazas y priorizar respuestas no son un lujo — son un salvavidas. Pero cuando te estás ahogando, no siempre revisas la calificación de seguridad de la cuerda que te lanzan.

La escasez de talento lo empeora. La falta de talento calificado es la principal barrera para la excelencia en ciberseguridad, según la encuesta de Ivanti. El 43% de los profesionales de seguridad reporta altos niveles de estrés y el 79% dice que afecta su salud física y mental. Cuando no tienes suficiente personal, y quienes tienes están agotados, la tentación de delegar tareas a agentes de IA sin la gobernanza adecuada es enorme. La escasez de talento no solo crea un problema de personal, sino también de gobernanza, porque quienes deberían garantizar una implementación segura de la IA son los mismos que ya están saturados.

Las herramientas fragmentadas agravan el reto. Los agentes de IA de seguridad necesitan acceder a datos de múltiples herramientas — SIEM, EDR, escáneres de vulnerabilidades, plataformas de inteligencia de amenazas — cada una con diferentes controles de acceso y capacidades de auditoría. El informe de Ivanti identifica esta fragmentación como una barrera para la automatización efectiva impulsada por IA. Y las herramientas fragmentadas significan gobernanza fragmentada: cada herramienta tiene su propio motor de políticas, su propio formato de registros, su propio modelo de acceso. Cuando un agente de IA opera en todas ellas, las brechas de gobernanza se multiplican.

El resultado es un patrón que los datos de Ivanti dejan claro: los equipos de seguridad implementan agentes de IA a gran velocidad, bajo presión, sin los procesos para hacerlo de forma segura. La adopción va muy por delante de la preparación, igual que ocurrió en el área de negocio.

Los ataques contra agentes de IA ya están demostrados

Si la brecha de gobernanza fuera solo una preocupación de cumplimiento, ya sería grave. Pero la amenaza es activa y está demostrada.

La investigación de Trend Micro sobre vulnerabilidades en agentes de IA demostró que los agentes de IA multimodales pueden ser manipulados mediante instrucciones ocultas en imágenes o documentos, provocando la exfiltración de datos sensibles sin interacción del usuario. Las categorías de ataque en riesgo incluyen datos personales, información financiera, información de salud protegida, secretos empresariales, credenciales de autenticación y documentos confidenciales subidos (resumen ejecutivo de Trend Micro).

Investigadores en arXiv construyeron un exploit completo de extremo a extremo contra un agente de IA basado en RAG. Una página web maliciosa con instrucciones ocultas hizo que el agente recuperara secretos de su base de conocimientos interna y los enviara a un servidor controlado por el atacante, usando la propia herramienta legítima de búsqueda web del agente como canal de exfiltración. Su conclusión: los agentes LLM actuales con uso de herramientas y RAG presentan una «vulnerabilidad fundamental» a la inyección indirecta de prompts, y las funciones de seguridad integradas en el modelo no son suficientes sin capas defensivas adicionales.

Ahora aplica esos vectores de ataque a un agente de IA de seguridad. Un agente con acceso a resultados de escaneos de vulnerabilidades, manipulado mediante inyección de prompts, podría transmitir tu lista completa de sistemas sin parches a un atacante. Un agente con acceso a manuales de respuesta a incidentes, comprometido mediante un plugin malicioso, podría revelar exactamente cómo respondes a brechas — dando a los atacantes una guía paso a paso para evadir tus defensas. Un agente con acceso a datos de identidad podría exponer credenciales privilegiadas y rutas de escalada.

No es especulación. Los vectores de ataque están probados. Los datos a los que los agentes de IA de seguridad necesitan acceder son exactamente los que más valoran los atacantes. El único ingrediente que falta es la gobernanza — y el informe de Ivanti nos dice que la mayoría de las organizaciones no la tiene.

El 77% ya ha sido víctima de deepfakes. Solo el 27% está preparado. Ahora suma los agentes de IA.

El informe de Ivanti revela otra dimensión que se cruza directamente con el problema de gobernanza de agentes de IA. El 77% de las organizaciones ya ha sido objetivo de ataques con deepfakes, y más de la mitad ha enfrentado phishing sofisticado y personalizado impulsado por esta tecnología. El 48% considera que el contenido digital sintético es una amenaza alta o crítica, pero solo el 27% está muy preparado. Es una brecha de 21 puntos entre conciencia y preparación.

Apenas el 30% de los profesionales de seguridad confía en que su CEO podría identificar un deepfake de forma fiable. Y este es el entorno en el que las organizaciones están implementando agentes de IA autónomos con amplio acceso a sistemas sensibles.

La convergencia es lo importante. Los ataques impulsados por IA son cada vez más sofisticados. Los equipos de seguridad implementan agentes de IA para responder. Esos agentes necesitan acceso a los datos de seguridad más sensibles de la organización. Y la gobernanza para mantenerlo todo seguro aún no existe en la mayoría de las organizaciones.

Qué requiere realmente la gobernanza de agentes de IA de seguridad

El informe Cyber Pulse de Microsoft plantea el enfoque correcto como Zero Trust para agentes — aplicar los mismos principios que se usan para usuarios humanos: acceso de mínimo privilegio, verificación explícita de «quién o qué» solicita acceso y suponer el compromiso como principio de diseño. Para los agentes de IA de seguridad, esto significa algo específico e innegociable.

Los agentes de IA de seguridad deben acceder a los datos de amenazas a través de una puerta de enlace gobernada, no mediante conexiones directas a bases de datos. Un agente de detección de amenazas no necesita acceso a resultados de escaneos de vulnerabilidades. Un agente de clasificación de alertas no necesita acceso a la topología de red. Cada agente debe acceder solo a los datos específicos requeridos para su función — nada más. Cada solicitud debe autenticarse y autorizarse antes de acceder a los datos, y cada interacción debe registrarse en una bitácora inmutable que permita reconstruir exactamente qué datos se accedieron, cuándo y qué hizo el agente con ellos.

La ejecución en entornos aislados es esencial. Los agentes de IA deben operar en entornos que impidan el movimiento lateral si se ven comprometidos. Los controles DLP deben evitar que los datos de seguridad — registros, escaneos de vulnerabilidades, inteligencia de amenazas — salgan a servicios externos de IA. La detección de anomalías debe alertar sobre patrones de acceso inusuales, como un agente solicitando descargas masivas de datos de vulnerabilidades que normalmente no consulta.

Y, de forma crítica, las organizaciones necesitan una gobernanza unificada tanto para la IA empresarial como para la de seguridad. Ejecutar marcos de gobernanza separados para agentes de productividad y de seguridad genera la misma fragmentación que Ivanti identifica como barrera para la automatización efectiva. Una sola plataforma, un solo motor de políticas, una sola bitácora inmutable — abarcando todos los agentes de IA de la organización, sin importar su función.

La Red de Contenido Privado de Kiteworks proporciona esta capa de gobernanza. Su puerta de enlace de datos IA crea un puente de confianza cero entre los sistemas de IA — incluidos los agentes de IA de seguridad — y los datos empresariales, asegurando que la información confidencial nunca salga del entorno protegido. Su servidor MCP seguro aísla la ejecución de los agentes de IA con autenticación OAuth 2.0, detección de anomalías y aplicación de los marcos de gobernanza existentes. Y su gobernanza unificada multicanal cubre uso compartido de archivos, transferencia de archivos gestionada, correo electrónico, formularios web, APIs e interacciones de IA bajo un solo motor de políticas y una sola bitácora inmutable.

Para los agentes de IA de seguridad en particular, esto significa que un agente de detección de amenazas obtiene acceso gobernado a datos de alertas sin poder llegar a escaneos de vulnerabilidades o topología de red. Un agente de respuesta a incidentes accede solo a los datos necesarios para su función específica, con registros auditables. Y si cualquier agente se ve comprometido, la organización puede reconstruir exactamente qué datos se expusieron — con evidencia forense que satisface a reguladores y auditores.

El riesgo supera el de una filtración de datos

La exposición financiera por fallos de gobernanza de IA ya está bien documentada. El costo promedio de una filtración de datos es de $4.88 millones; en salud, $10.93 millones (Informe de IBM sobre el Costo de una Filtración de Datos, 2024). Las multas de la Ley de IA de la UE alcanzan los €35 millones o el 7% de los ingresos anuales globales. Las sanciones del GDPR llegan a €20 millones o el 4% de los ingresos.

Pero un agente de IA de seguridad comprometido genera un tipo de daño que va más allá del costo de una filtración. Cuando los atacantes obtienen tus resultados de escaneos de vulnerabilidades, no necesitan buscar debilidades en tus sistemas — ya tienen la lista. Si consiguen tus manuales de respuesta a incidentes, pueden diseñar ataques específicamente para evadir tus defensas. Si obtienen tu topología de red, pueden planificar movimientos laterales antes incluso de vulnerar el perímetro.

Esta es la diferencia entre una filtración de datos y un compromiso estratégico total. Y es el riesgo que asume el 87% de los equipos de seguridad al implementar agentes de IA sin la gobernanza que controle a qué pueden acceder esos agentes.

Tres prioridades para organizaciones que implementan agentes de IA de seguridad

Primero, aplica el principio de mínimo privilegio a los agentes de IA de seguridad con el mismo rigor — o más — que a los usuarios humanos. Un agente de clasificación de alertas debe acceder solo a datos de alertas. Un agente de gestión de vulnerabilidades debe acceder solo a datos de vulnerabilidades. Ninguno debe acceder al dominio del otro. Mapea los requisitos de datos de cada agente de IA de seguridad al acceso mínimo necesario para su función específica y haz cumplir esos límites a través de una puerta de enlace de datos gobernada — no confiando en las funciones de seguridad integradas del modelo, que múltiples investigaciones han demostrado insuficientes.

Segundo, unifica la gobernanza de la IA empresarial y de seguridad bajo una sola plataforma. El informe de Ivanti identifica las herramientas fragmentadas como barrera para la automatización de seguridad efectiva. La gobernanza fragmentada de IA es aún peor. Ejecutar políticas, bitácoras y controles de acceso separados para agentes de productividad y de seguridad crea puntos ciegos en los límites — justo donde buscan los atacantes. Un solo motor de políticas, una sola bitácora y una sola capa de visibilidad para todos los agentes de IA de la organización es la única arquitectura que escala.

Tercero, desarrolla capacidades de respuesta a incidentes para compromisos de agentes de IA antes de necesitarlas. Si un agente de IA de seguridad se ve comprometido, ¿puedes reconstruir a qué datos accedió? ¿Puedes determinar si se exfiltraron escaneos de vulnerabilidades, inteligencia de amenazas o datos de identidad? ¿Puedes demostrar a los reguladores que el agente operó dentro de los límites aprobados hasta el momento del compromiso? Los registros de auditoría inmutables, la integración con SIEM y la documentación de cadena de custodia no son opcionales — son la base de la respuesta a incidentes de IA.

El informe de Ivanti captura un momento de verdadera tensión en la ciberseguridad. Los equipos de seguridad están bajo una presión extraordinaria — por amenazas crecientes, escasez de talento, agotamiento y una brecha de preparación cada vez mayor. La IA agente ofrece un camino real hacia adelante. Pero solo si existe la gobernanza para evitar que se convierta en la mayor amenaza interna de la organización.

El 87% que prioriza la IA agente tiene razón en hacerlo. La pregunta es si la asegurarán antes de que asegure sus datos — para las personas equivocadas.

Para descubrir cómo Kiteworks puede ayudarte, agenda una demo personalizada hoy.

Preguntas frecuentes

Los agentes de IA empresariales suelen acceder a registros de clientes, contratos y datos financieros — objetivos de alto valor, pero de alcance limitado. Los agentes de IA de seguridad deben acceder a datos de SIEM, resultados de escaneos de vulnerabilidades, manuales de respuesta a incidentes, datos de identidad y acceso, y topología de red para funcionar. Si un agente de seguridad es comprometido o manipulado mediante inyección de prompts, un atacante no solo obtiene registros sensibles — consigue un mapa completo de tu postura defensiva: lo que puedes detectar, dónde tienes sistemas sin parches y exactamente cómo respondes a brechas. El radio de impacto de un agente de seguridad comprometido es categóricamente mayor.

La paradoja es esta: los mismos agentes de IA que los equipos de seguridad necesitan para defenderse de ataques sofisticados impulsados por IA requieren un acceso amplio a los datos de seguridad más sensibles de la organización — los mismos datos que los convierten en objetivos catastróficos si son comprometidos. El informe 2026 de Ivanti halló que el 87% de los equipos de seguridad prioriza la IA agente, pero la mayoría carece de procesos de gobernanza para implementarla de forma segura. La urgencia que impulsa la adopción — fatiga de alertas, escasez de talento, amenazas crecientes — también dificulta una implementación segura. La velocidad y la presión son enemigas de la gobernanza que hace seguros a los agentes de IA.

La inyección de prompts inserta instrucciones ocultas en el contenido que procesa un agente de IA — un documento, página web o flujo de datos — que anulan su programación original. Trend Micro demostró que esto funciona sin interacción del usuario; investigadores de arXiv construyeron un exploit funcional que usó la propia herramienta de búsqueda web de un agente basado en RAG como canal de exfiltración. Para un agente de seguridad con acceso a datos de vulnerabilidades o inteligencia de amenazas, una inyección exitosa es catastrófica. Las funciones de seguridad integradas en el modelo no son suficientes — detenerlo requiere una puerta de enlace de datos gobernada que aplique acceso de confianza cero, ejecución aislada del agente y controles DLP en los flujos de datos salientes.

Aplicar Zero Trust a los agentes de IA significa tratar cada agente como una identidad no humana distinta que requiere autenticación explícita antes de cada solicitud de datos. El acceso se limita a los datos mínimos necesarios para la tarea específica del agente — un agente de detección de amenazas accede solo a datos de alertas, no a escaneos de vulnerabilidades ni diagramas de red. Cada interacción se registra en una bitácora inmutable. La ejecución en entornos aislados previene el movimiento lateral si un agente es comprometido. La detección de anomalías alerta sobre patrones inusuales — solicitudes masivas de datos, transmisiones a destinos inesperados — a velocidad de máquina. De forma crítica, los controles de acceso deben aplicarse en la capa de datos mediante una puerta de enlace gobernada, no confiando en el propio juicio del modelo de IA.

Un plan de respuesta a incidentes de IA debe responder rápidamente a tres preguntas: ¿a qué datos accedió el agente comprometido?, ¿alguno de esos datos salió del entorno?, ¿puedes demostrar a los reguladores que el agente operó dentro de los límites autorizados antes de la brecha? Eso requiere registros de auditoría inmutables que capturen cada interacción de datos del agente — identidad de usuario, marca de tiempo, datos accedidos, acción realizada — combinados con integración SIEM para alertas en tiempo real y documentación de cadena de custodia que cumpla requisitos forenses y de cumplimiento. Las organizaciones que construyen esta infraestructura antes de un compromiso pueden contener y documentar el incidente. Las que lo hacen después investigan a ciegas.

Recursos adicionales

  • Artículo del Blog Arquitectura Zero Trust: Nunca confíes, siempre verifica
  • Video Microsoft GCC High: Desventajas que impulsan a los contratistas de defensa hacia ventajas más inteligentes
  • Artículo del Blog Cómo proteger datos clasificados una vez que DSPM los identifica
  • Artículo del Blog Cómo generar confianza en la IA generativa con un enfoque Zero Trust
  • Video La guía definitiva para el almacenamiento seguro de datos sensibles para líderes de TI

Comienza ahora.

Es fácil comenzar a asegurar el cumplimiento normativo y gestionar eficazmente los riesgos con Kiteworks. Únete a las miles de organizaciones que confían en cómo intercambian datos confidenciales entre personas, máquinas y sistemas. Empieza hoy mismo.

Table of Content
Compartir
Twittear
Compartir
Explore Kiteworks