Las empresas avanzan a ciegas hacia la crisis de seguridad de la IA (y los datos lo demuestran)

Un análisis de casi un billón de transacciones revela una verdad inquietante: las organizaciones están adoptando la IA más rápido de lo que pueden protegerla, y los atacantes ya están explotando esa brecha.

La gran desconexión en la seguridad de la IA

Algo extraño está ocurriendo en la tecnología empresarial. Las empresas corren para implementar herramientas de IA, integrar aprendizaje automático en los flujos de trabajo y automatizar desde la atención al cliente hasta el desarrollo de código. Pero cuando los investigadores de seguridad decidieron probar realmente la resistencia de estos sistemas ante ataques, encontraron algo alarmante: todos los sistemas empresariales de IA que analizaron tenían vulnerabilidades críticas.

No es un error tipográfico. Tasa de fallos del cien por ciento.

El Informe de Seguridad de IA 2026 de ThreatLabz de Zscaler analizó casi un billón de transacciones de IA y aprendizaje automático en aproximadamente 9,000 organizaciones durante 2025. Lo que descubrieron dibuja el panorama de una industria acelerando hacia un precipicio mientras pisa el acelerador.

El tiempo medio hasta la primera falla crítica durante las pruebas de red team fue de solo 16 minutos, y el 90% de los sistemas fueron comprometidos en menos de 90 minutos. En el caso más extremo documentado, las defensas colapsaron en un solo segundo.

Piénsalo bien. Los equipos de seguridad suelen medir los tiempos de respuesta en horas o días. Ahora los atacantes pueden medir el tiempo de compromiso en minutos.

Cinco conclusiones clave

1. Todos los sistemas empresariales de IA analizados tenían vulnerabilidades críticas

Las pruebas de red team de Zscaler encontraron fallos críticos en el 100% de los sistemas empresariales de IA analizados, con un tiempo medio hasta la primera falla crítica de solo 16 minutos. En el caso más extremo, las defensas de seguridad fueron eludidas en un segundo, demostrando que los sistemas de IA se rompen casi de inmediato ante condiciones adversas reales.

2. 18,000 terabytes de datos corporativos fluyeron hacia plataformas de IA

Las transferencias de datos empresariales a aplicaciones de IA y aprendizaje automático aumentaron un 93% interanual hasta 18,033 terabytes, transformando herramientas como Grammarly y ChatGPT en enormes depósitos de inteligencia corporativa. Esta exposición generó 410 millones de infracciones de políticas de prevención de pérdida de datos asociadas solo a ChatGPT, incluyendo intentos de compartir números de la Seguridad Social, código fuente e historiales médicos.

3. La IA en la sombra está eludiendo los controles de seguridad empresariales

Aproximadamente el 77% de los empleados pega datos en herramientas de IA generativa, y el 82% de esta actividad ocurre a través de cuentas personales que operan completamente fuera de la supervisión corporativa. Los sistemas tradicionales de prevención de pérdida de datos no fueron diseñados para flujos de trabajo de copiar y pegar, dejando a los equipos de seguridad a ciegas ante la mayoría de las transferencias de datos sensibles.

4. Las aplicaciones de IA se cuadruplicaron mientras la visibilidad colapsaba

El número de aplicaciones que impulsan transacciones de IA/aprendizaje automático se disparó a más de 3,400, un aumento de cuatro veces interanual que ha dejado a muchas organizaciones sin un inventario básico de modelos de IA activos o funciones integradas. Finanzas y seguros lideran la adopción de IA con el 23% de todo el tráfico, mientras que los sectores de tecnología y educación experimentaron un crecimiento de transacciones superior al 200%.

5. La IA agente está permitiendo ciberataques a velocidad de máquina

Los agentes autónomos de IA están surgiendo como la próxima amenaza interna y como multiplicadores de fuerza para los atacantes, capaces de ejecutar reconocimiento, explotación y movimiento lateral a velocidades que las herramientas de seguridad tradicionales no pueden igualar. Ahora los defensores deben asumir que los ataques pueden escalar y adaptarse a velocidad de máquina, no humana, con equipos de seguridad midiendo tiempos de respuesta en horas frente a amenazas que comprometen sistemas en minutos.

Confías en que tu organización está segura. Pero ¿puedes verificarlo?

Léelo ahora

18,000 terabytes de inteligencia corporativa, fluyendo hacia fuera

La magnitud de los datos que fluyen hacia los sistemas de IA ha alcanzado proporciones asombrosas. Las transferencias empresariales de datos a aplicaciones de IA y aprendizaje automático se dispararon a 18,033 terabytes en 2025, lo que representa un aumento interanual del 93%. Para ponerlo en perspectiva, es aproximadamente el equivalente a 3,600 millones de fotografías digitales de información corporativa alimentando plataformas externas de IA.

¿A dónde va toda esa información? Herramientas como Grammarly absorbieron 3,615 terabytes de contenido empresarial, mientras que ChatGPT recibió 2,021 terabytes. Estas plataformas se han convertido en enormes depósitos de inteligencia corporativa, almacenando desde documentos estratégicos hasta código fuente y datos de clientes.

El problema no es que los empleados usen herramientas de IA. El problema es cómo las usan—y qué comparten sin darse cuenta de las implicaciones.

La magnitud de este riesgo se cuantifica en 410 millones de infracciones de políticas de Prevención de Pérdida de Datos asociadas solo a ChatGPT, incluyendo intentos de compartir números de la Seguridad Social, código fuente e historiales médicos.

Cuatrocientos diez millones de infracciones. De una sola aplicación.

El problema de la IA en la sombra del que nadie quiere hablar

Aproximadamente el 77% de los empleados pega datos en herramientas de IA generativa, y el 82% de esta actividad ocurre a través de cuentas personales que eluden por completo la supervisión empresarial. Esto significa que la mayoría de las transferencias de datos sensibles ocurren completamente fuera de los controles de seguridad corporativos.

Los hallazgos del informe coinciden con investigaciones más amplias del sector que muestran que el 68% de los empleados utiliza herramientas de IA gratuitas como ChatGPT a través de cuentas personales, y el 57% introduce datos sensibles.

Los sistemas tradicionales de prevención de pérdida de datos fueron diseñados para detectar archivos que se suben o descargan. No fueron creados para la era del copiar y pegar, donde los empleados simplemente seleccionan texto en un documento confidencial y lo colocan en un chatbot en el navegador bajo su cuenta personal de Gmail.

El riesgo más inmediato y específico de la IA generativa es el aumento sustancial de la exposición de datos, con la tasa de infracciones de políticas de datos asociadas al uso de aplicaciones de genAI duplicándose el año pasado.

Esto no es una preocupación teórica. Es medible, está acelerándose y ocurre en todos los sectores.

IA integrada: la amenaza que no puedes ver

Más allá de las aplicaciones de IA evidentes como ChatGPT y los asistentes de código, existe un problema más insidioso. Las capacidades de IA ahora se integran directamente en plataformas de software empresarial cotidianas—muchas veces activadas por defecto y funcionando sin que el usuario lo sepa.

Estas funciones de IA integradas crean lo que los investigadores de seguridad llaman un «multiplicador de riesgo silencioso». Heredan permisos demasiado amplios de sus aplicaciones anfitrionas, pueden ingerir contenido empresarial de sistemas conectados y establecen nuevos límites de confianza difíciles de auditar o incluso detectar.

Entre todas las plataformas analizadas, Atlassian fue una de las principales fuentes de actividad de IA integrada, reflejando el uso generalizado de funciones potenciadas por IA en sus plataformas principales, como Jira y Confluence.

Cuando tu herramienta de gestión de proyectos resume tickets silenciosamente usando IA, o tu plataforma de documentación genera sugerencias de contenido automáticamente, la información sensible puede fluir hacia sistemas de IA a través de vías que tu equipo de seguridad nunca consideró.

¿El resultado? Muchas organizaciones aún carecen de un inventario básico de modelos de IA activos y funciones integradas, lo que las deja sin saber exactamente dónde se expone la información sensible.

La explosión de 3,400 aplicaciones

El número de aplicaciones que impulsan transacciones de IA y aprendizaje automático se cuadruplicó interanualmente hasta superar las 3,400, aumentando la complejidad y reduciendo la visibilidad centralizada.

Esta rápida proliferación ha dejado a muchas organizaciones sin un mapa claro de qué modelos de IA interactúan con sus datos o qué cadenas de suministro hay detrás. Los equipos de seguridad están jugando a un «golpea al topo» frente a un problema que crece exponencialmente.

La actividad de IA empresarial aumentó un 91% interanual en más de 3,400 aplicaciones. Finanzas y seguros siguen siendo los sectores más impulsados por IA por volumen, representando el 23% de todo el tráfico de IA/aprendizaje automático, mientras que los sectores de tecnología y educación registraron un crecimiento explosivo de transacciones del 202% y 184% respectivamente.

Los departamentos de ingeniería representaron el 48.9% de todo el uso de IA empresarial, seguidos por TI con el 31.8% y marketing con el 6.9%. Los usuarios más intensivos son precisamente los departamentos con acceso a la propiedad intelectual más sensible y a los datos de clientes.

Cuando las máquinas atacan a velocidad de máquina

Aquí es donde la conversación pasa de preocupante a realmente alarmante.

El informe de perspectivas cibernéticas 2026 de Moody’s advirtió sobre el aumento de ciberataques impulsados por IA, incluyendo malware adaptativo y amenazas autónomas, a medida que las empresas adoptan la IA sin suficientes medidas de protección.

La aparición de la «IA agente»—sistemas autónomos capaces de ejecutar tareas complejas sin supervisión humana—está cambiando fundamentalmente el panorama de amenazas. Según Palo Alto Networks, los agentes de IA representan la nueva amenaza interna para las empresas en 2026, ya que la IA agente se vuelve vulnerable a la explotación y un objetivo atractivo para los atacantes.

Ya hemos superado la etapa de los chatbots pasivos y entramos en la era de los agentes autónomos. Este cambio transforma radicalmente el panorama de amenazas para las organizaciones, convirtiendo la IA de generadora de contenido a participante activo en la infraestructura empresarial, capaz de ejecutar código y modificar datos.

Las herramientas de seguridad tradicionales fueron diseñadas para detectar anomalías en el comportamiento humano. Un agente de IA que ejecuta código perfectamente 10,000 veces seguidas parece normal para estos sistemas. Pero ese agente podría estar ejecutando órdenes de un atacante.

En el punto máximo de un ataque orquestado por IA documentado, la IA realizó miles de solicitudes, a menudo varias por segundo—una velocidad de ataque que para los hackers humanos sería simplemente imposible de igualar.

Los actores de amenazas están usando modelos para generar cebos convincentes en cualquier idioma, mutar cargas útiles para cada objetivo y analizar bases de datos robadas a una escala que la técnica manual nunca podría igualar.

Las implicaciones para los defensores son claras: ya no puedes asumir que los ataques se desarrollarán a velocidad humana. Los equipos de seguridad que miden los tiempos de respuesta en horas están defendiendo contra amenazas que pueden comprometer sistemas en minutos.

La solución del 39% (que en realidad no es una solución)

Las organizaciones son conscientes de que hay que hacer algo. La investigación de Zscaler revela que las empresas bloquearon aproximadamente el 39% de las transacciones de IA/aprendizaje automático debido a preocupaciones de exposición de datos, privacidad y cumplimiento.

Por un lado, esto demuestra que los equipos de seguridad están actuando. Por otro, revela la magnitud del problema: si cuatro de cada diez transacciones de IA se marcan como riesgos potenciales, algo fundamental está fallando en la forma en que las empresas están adoptando la IA.

Las herramientas que los empleados usan con más frecuencia—Grammarly, ChatGPT, Copilot, asistentes de código—son también las más bloqueadas y las más involucradas en interacciones con datos sensibles. Estas aplicaciones están directamente en los flujos de trabajo diarios, lo que las hace simultáneamente esenciales y peligrosas.

El ajuste de cuentas regulatorio

OpenAI fue multada con 15 millones de euros por la Autoridad Italiana de Protección de Datos por entrenar modelos con datos personales sin una base legal clara y no implementar una verificación de edad adecuada. La primera gran ola de aplicación de la Ley de IA de la UE se intensifica en 2026 a medida que el marco integral de cumplimiento para sistemas de alto riesgo entra plenamente en vigor.

Ya no es solo un problema técnico. Es un problema regulatorio. Las organizaciones que implementan sistemas de IA sin marcos de gobernanza adecuados se enfrentan a posibles multas de hasta 35 millones de euros o el 7% de la facturación anual global bajo la Ley de IA de la UE, además de las sanciones existentes del GDPR.

Las infracciones de DLP documentadas en el informe de Zscaler—intentos de compartir datos sanitarios regulados, registros financieros e información personal identificable a través de plataformas de IA—representan exactamente el tipo de actividad que desencadena investigaciones de cumplimiento.

¿Qué funciona realmente?

La respuesta de la industria de la seguridad ante este desafío se está consolidando en torno a varios principios clave.

Primero, visibilidad. No puedes proteger lo que no puedes ver. Las organizaciones necesitan inventarios integrales de cada aplicación de IA, función integrada y modelo que interactúe con sus datos. Esto incluye las herramientas de IA en la sombra que los empleados usan a través de cuentas personales.

Segundo, tratar el tráfico de IA como un dominio crítico de seguridad. La mayoría de las empresas carecen de una visión completa de las aplicaciones y servicios de IA en uso, incluyendo herramientas de IA generativa, entornos de desarrollo de IA, IA integrada en SaaS, modelos, agentes e infraestructura subyacente. La seguridad perimetral tradicional no funciona cuando la amenaza es la salida de datos a través de canales legítimos.

Tercero, pruebas continuas. Los tiempos de compromiso de 16 minutos documentados en los ejercicios de red team demuestran que los sistemas de IA fallan rápidamente bajo condiciones adversas. No es un problema de una sola prueba de penetración—requiere validación constante.

Cuarto, higiene de permisos. Las herramientas y agentes de IA deben operar bajo principios de acceso de mínimo privilegio, igual que los usuarios humanos. Un asistente de IA diseñado para ayudar con la agenda no necesita acceso a tu base de datos de clientes.

Quinto, puntos de control con intervención humana para decisiones críticas. Un agente nunca debería poder transferir fondos, borrar datos o cambiar políticas de control de acceso sin aprobación explícita de una persona.

La incómoda verdad

La IA ha pasado de ser una herramienta de productividad a convertirse en un vector principal para conflictos autónomos a velocidad de máquina.

No es lenguaje de marketing. Es lo que casi un billón de transacciones de datos revela sobre el estado real de la seguridad en IA.

Las organizaciones que tratan la seguridad de la IA como algo secundario—algo que abordar solo después de obtener beneficios de productividad—se están exponiendo a incidentes que se desarrollan más rápido de lo que sus equipos de seguridad pueden responder.

Las empresas que descubran cómo gobernar la IA a gran escala sin apagarla por completo tendrán una ventaja competitiva. Las que no, tendrán que explicar a reguladores, clientes y accionistas cómo 18,000 terabytes de datos corporativos terminaron en lugares donde nunca debieron estar.

Como señaló Jay Chaudhry, CEO y fundador de Zscaler: «La IA está cambiando la forma en que operan las empresas, pero los enfoques tradicionales de seguridad no fueron diseñados para proteger la IA. Los líderes empresariales buscan una solución integral—no más productos puntuales.»

La ventana para adelantarse a este problema se está cerrando. Los adversarios ahora pueden automatizar la mayor parte de una intrusión con casi ninguna experiencia humana. Las empresas que no adopten defensas automatizadas y potenciadas por IA se verán superadas por amenazas que evolucionan más rápido de lo que cualquier modelo de seguridad tradicional puede seguirles el ritmo.

La elección no es entre adoptar IA y mantenerse seguro. Es entre adoptar IA con una gobernanza adecuada o avanzar a ciegas hacia una crisis que ya ha llegado.

Para descubrir cómo Kiteworks puede ayudarte, agenda una demo personalizada hoy mismo.

Preguntas frecuentes

El Informe de Seguridad de IA 2026 de ThreatLabz es un análisis anual de ciberseguridad publicado por Zscaler el 27 de enero de 2026, que examina los patrones de uso empresarial de IA y las vulnerabilidades de seguridad. El informe analizó 989.3 mil millones de transacciones de IA y aprendizaje automático en aproximadamente 9,000 organizaciones que utilizan la plataforma Zscaler Zero Trust Exchange entre enero y diciembre de 2025.

Según las pruebas de red team de Zscaler, el tiempo medio hasta la primera falla crítica en sistemas empresariales de IA fue de solo 16 minutos, y el 90% de los sistemas fueron comprometidos en menos de 90 minutos. En el caso más extremo documentado, las defensas de seguridad fueron eludidas en un segundo, demostrando que los sistemas de IA fallan rápidamente bajo condiciones adversas.

Las transferencias de datos empresariales a aplicaciones de IA y aprendizaje automático alcanzaron los 18,033 terabytes en 2025, lo que representa un aumento interanual del 93%. Grammarly recibió 3,615 terabytes de contenido empresarial mientras que ChatGPT absorbió 2,021 terabytes, convirtiendo estas plataformas en algunos de los mayores depósitos de inteligencia corporativa.

La IA en la sombra se refiere al uso no autorizado de herramientas de IA generativa a través de cuentas personales que eluden los controles de seguridad empresariales. Las investigaciones indican que el 77% de los empleados pega datos en herramientas de IA generativa, y el 82% de esta actividad ocurre a través de cuentas personales no gestionadas, creando un enorme punto ciego para los sistemas de prevención de pérdida de datos y exponiendo información corporativa sensible sin supervisión.

Finanzas y seguros son los sectores más impulsados por IA en volumen de transacciones, representando el 23% de todo el tráfico de IA/aprendizaje automático observado en el informe. Los sectores de tecnología y educación registraron los mayores índices de crecimiento interanual, con un 202% y 184% respectivamente. Los departamentos de ingeniería representan casi la mitad del uso empresarial de IA con un 48.9%, seguidos por TI con un 31.8%.

La IA agente se refiere a sistemas autónomos de IA capaces de ejecutar tareas complejas sin supervisión humana, incluyendo reconocimiento, explotación y movimiento lateral en redes. Los expertos en seguridad advierten que la IA agente está surgiendo como un vector de ataque principal porque permite que los ciberataques escalen y se adapten a velocidad de máquina, superando a las herramientas de seguridad tradicionales diseñadas para detectar anomalías en los patrones de comportamiento humano.

Recursos adicionales

  • Artículo del Blog Arquitectura Zero Trust: nunca confíes, siempre verifica
  • Video Microsoft GCC High: desventajas que impulsan a los contratistas de defensa hacia ventajas más inteligentes
  • Artículo del Blog Cómo proteger datos clasificados una vez que DSPM los identifica
  • Artículo del Blog Generar confianza en la IA generativa con un enfoque Zero Trust
  • Video La guía definitiva para el almacenamiento seguro de datos sensibles para líderes de TI

Comienza ahora.

Es fácil comenzar a asegurar el cumplimiento normativo y gestionar eficazmente los riesgos con Kiteworks. Únete a las miles de organizaciones que confían en cómo intercambian datos confidenciales entre personas, máquinas y sistemas. Empieza hoy mismo.

Table of Content
Compartir
Twittear
Compartir
Explore Kiteworks