La seguridad limita la escalabilidad de la IA agente: Stanford confirma una barrera clave

El Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford publicó este mes su Informe AI Index 2026, y la mayoría de las coberturas se han centrado en la carrera tecnológica entre EE. UU. y China: los modelos chinos acercándose a solo 2,7 puntos porcentuales de los principales modelos estadounidenses, la inversión en IA en EE. UU. alcanzando los 285.900 millones de dólares en 2025. Esos hallazgos son relevantes. Pero los resultados más trascendentales están en las secciones que la mayoría pasó por alto, especialmente en lo relacionado con IA responsable, gobernanza y escalado de IA agente.

Conclusiones clave

  1. La seguridad y los riesgos son la principal barrera para escalar IA agente. El AI Index 2026 de Stanford detectó que el 62% de las organizaciones señala la seguridad y el riesgo como el principal obstáculo, superando las limitaciones técnicas (38%), la incertidumbre regulatoria (38%) y las carencias en herramientas de IA responsable (32%). Cuando la pregunta pasa de IA generativa a IA agente, la seguridad se convierte en la restricción dominante.
  2. Los incidentes de IA se agrupan, no solo se cuentan. Aunque el porcentaje de organizaciones que reporta al menos un incidente de IA se mantuvo estable en 8% tanto en 2024 como en 2025, la agrupación cambió drásticamente. Las organizaciones que reportaron entre 3 y 5 incidentes subieron del 30% al 50%, mientras que las que tuvieron solo 1 o 2 incidentes bajaron del 42% al 29%. Los incidentes de IA se están volviendo recurrentes dentro de las mismas organizaciones, a menudo las que adoptan IA de forma más agresiva.
  3. La capacidad de respuesta ante incidentes autoevaluada está disminuyendo. Las organizaciones que califican su respuesta a incidentes de IA como «excelente» bajaron del 28% al 18% entre 2024 y 2025. Aquellas que reportan respuestas «buenas» cayeron del 39% al 24%. Las organizaciones experimentan más incidentes de IA y se sienten menos capaces de gestionarlos.
  4. La percepción del riesgo ya está alineada con la realidad operativa. La preocupación por riesgos de ciberseguridad subió del 66% al 72%, la preocupación por cumplimiento normativo del 63% al 72%, y la preocupación por inexactitud saltó 14 puntos, del 60% al 74%. Los riesgos de seguridad de datos y cumplimiento impulsados por IA ya son preocupaciones generalizadas, no especulativas.
  5. La adopción de políticas de IA responsable se ha acelerado, pero persisten barreras de implementación. Las organizaciones sin políticas de RAI bajaron del 24% al 11% interanual. Sin embargo, las brechas de conocimiento y capacitación siguen siendo el principal obstáculo para la implementación total (59%, frente al 51%), seguidas por limitaciones de recursos (41%) y limitaciones técnicas (38%). Las organizaciones buscan controles empaquetados y con criterio, no más documentos de políticas.

Este es el hallazgo que debería cambiar la forma en que cada junta directiva, CISO y responsable de cumplimiento piensa sobre la implementación de IA en 2026.

Cuando Stanford preguntó a las organizaciones qué les impide escalar IA agente —agentes de IA capaces de ejecutar flujos de trabajo de varios pasos, interactuar con herramientas y manipular datos de forma autónoma—, la seguridad y los riesgos superaron a cualquier otra barrera con un 62%. Las limitaciones técnicas quedaron en 38%. La incertidumbre regulatoria en 38%. Las carencias en herramientas y controles de IA responsable en 32%. Las limitaciones de recursos y el valor de negocio poco claro quedaron más abajo.

Lee ese orden. La seguridad no está empatada con otras preocupaciones. No está en segundo lugar tras la incertidumbre regulatoria. Es la restricción dominante, con una diferencia de 24 puntos porcentuales sobre el siguiente factor más cercano. Las organizaciones no tienen dificultades para escalar IA agente porque la tecnología sea inmadura o falten presupuestos. Tienen dificultades porque no pueden gobernar el acceso a los datos que requieren los agentes autónomos.

Los datos de incidentes cuentan una historia más precisa que los titulares

Gran parte de la cobertura del informe de Stanford presenta los datos de incidentes de IA como «362 incidentes en 2025, frente a 233 en 2024», citando la cifra documentada de daños de la AI Incident Database. Ese enfoque es correcto pero analíticamente incompleto.

Los datos de la encuesta de Stanford cuentan una historia más precisa sobre dónde ocurren realmente los incidentes de IA. El porcentaje de organizaciones que reporta al menos un incidente de IA se mantuvo plano en 8% tanto en 2024 como en 2025. Lo que cambió fue la agrupación. Entre las organizaciones que sí experimentaron incidentes, las que reportaron entre 3 y 5 incidentes subieron del 30% al 50%. Las que reportaron solo 1 o 2 incidentes bajaron del 42% al 29%.

Esta distinción importa. Significa que los incidentes de IA no se están extendiendo a más organizaciones, sino que se están concentrando en aquellas que ya los han experimentado. La explicación más probable es también la más incómoda: las organizaciones con la adopción de IA más agresiva son las que generan más incidentes, y no están aprendiendo lo suficientemente rápido para reducir la recurrencia.

Los datos sobre capacidad de respuesta ante incidentes refuerzan esta lectura. Las organizaciones que califican su respuesta a incidentes de IA como «excelente» bajaron del 28% al 18% en un año. Las que reportan respuestas «buenas» cayeron del 39% al 24%. Mientras tanto, las «satisfactorias» subieron del 19% al 32% y las que «necesitan mejorar» del 13% al 21%. Las organizaciones tienen cada vez menos confianza en su capacidad para gestionar incidentes de IA, incluso cuando su frecuencia crece en la población afectada.

El patrón es claro. Incidentes de IA recurrentes en quienes adoptan de forma agresiva, debilitamiento de la capacidad de respuesta y una tasa de incidencia estable (no decreciente) en la población general. El problema no se está extendiendo, se está profundizando.

La percepción del riesgo por fin ha alcanzado la realidad

Los datos de Stanford captaron un cambio significativo en cómo se percibe el riesgo en las organizaciones encuestadas. Entre 2024 y 2025, el porcentaje de personas que considera «relevantes» ciertos riesgos de IA aumentó en todas las categorías relacionadas con la seguridad de datos.

La preocupación por la inexactitud subió del 60% al 74%, un salto de 14 puntos. La preocupación por ciberseguridad subió del 66% al 72%. La preocupación por cumplimiento normativo subió del 63% al 72%, un aumento de 9 puntos. La privacidad personal se mantuvo alta con un crecimiento incremental.

Ya no son opiniones marginales. Aproximadamente tres de cada cuatro organizaciones ahora consideran los riesgos de seguridad de datos, cumplimiento y precisión impulsados por IA como preocupaciones materiales. El Informe de Amenazas de Datos Thales 2026 triangula este hallazgo desde otro ángulo: el 70% de los encuestados cita el rápido cambio en el ecosistema de IA como el riesgo relacionado con IA que más les preocupa. El Informe de Amenazas Internas DTEX/Ponemon 2026 añade que el 92% de las organizaciones afirma que la IA generativa ha cambiado fundamentalmente la forma en que los empleados comparten información, pero solo el 13% ha integrado la IA en su estrategia de seguridad.

La concienciación ya no es el factor limitante. Ahora lo es la capacidad operativa.

Por qué la política de IA responsable por sí sola no ha cerrado la distancia

Stanford documentó un segundo cambio notable junto con los datos de percepción de riesgo. La adopción formal de políticas de IA responsable se ha acelerado notablemente. Las organizaciones sin políticas de RAI bajaron del 24% en 2024 al 11% en 2025, lo que significa que casi nueve de cada diez organizaciones ya tienen algún tipo de gobernanza de IA codificada.

Los datos de impacto confirman que las políticas importan. Las organizaciones con políticas de RAI reportaron menos incidentes de IA (+8 puntos porcentuales frente a quienes no las tienen), mejores resultados de negocio (+7 puntos), mejores operaciones (+4 puntos) y mayor confianza de los clientes (+4 puntos). Las políticas funcionan. Pero no cierran la distancia por sí solas.

Las barreras para la implementación total cuentan el resto de la historia. Stanford detectó que el principal obstáculo para implementar IA responsable son las brechas de conocimiento y capacitación, citadas por el 59% de las organizaciones, frente al 51% en 2024. Las limitaciones técnicas siguen con un 38% (frente al 32%). Las limitaciones de recursos y presupuesto, un 41%. La incertidumbre regulatoria, un 38%. La resistencia organizacional y la falta de apoyo ejecutivo aparecen, pero son menos dominantes.

¿Qué indica ese patrón? Las organizaciones no fracasan en IA responsable por falta de convicción. Fracasan porque la experiencia para operacionalizar la política es escasa, las herramientas para hacerla cumplir son inmaduras y los recursos para construir ambas son limitados. La implicación es clara: las organizaciones necesitan controles empaquetados y con criterio —plantillas de políticas para clasificación de datos, registros automáticos, cumplimiento de consentimiento y retención, barreras de acceso a IA— que reduzcan la dependencia de la experiencia interna escasa.

Precisamente esa es la distancia que existen para cubrir Kiteworks Secure MCP Server y AI Data Gateway.

Los marcos regulatorios convergen en la capa de datos

Los datos de influencia regulatoria de Stanford muestran qué marcos están dando forma a la toma de decisiones sobre IA responsable en 2025. El Reglamento General de Protección de Datos de la UE siguió siendo el marco más citado, aunque su influencia bajó del 65% al 60%. La Ley de IA de la UE y la Orden Ejecutiva de IA de EE. UU. ganaron unos 2 puntos porcentuales al pasar de concepto a realidad operativa. La ISO/IEC 42001 —el estándar de sistemas de gestión de IA— apareció por primera vez en la encuesta con un 36%. El Marco de Gestión de Riesgos de IA del NIST alcanzó el 33%. Los Principios de IA de la OCDE bajaron del 21% al 16%. Las organizaciones que reportan no tener influencia regulatoria sobre sus prácticas de RAI bajaron del 17% al 12%.

De esas cifras surgen dos patrones.

Primero, los marcos específicos de IA (Ley de IA de la UE, ISO/IEC 42001, NIST AI RMF) se están adoptando como extensiones de los marcos de protección de datos existentes, no como regímenes aislados. La regulación de IA se interpreta cada vez más a través de la óptica de la protección de datos: legalidad, equidad, limitación de propósito, minimización de datos, límites de retención y seguridad del procesamiento. El Informe de Pronóstico Kiteworks 2026 documentó que el 82% de las organizaciones estadounidenses aún no siente presión por la Ley de IA de la UE, pero las organizaciones no impactadas por la Ley están entre 22 y 33 puntos por detrás en cada control principal de IA, surgiendo así un mercado de dos niveles.

Segundo, los enfoques impulsados por estándares están ganando peso operativo. El auge de ISO/IEC 42001 y la relevancia continua del NIST AI RMF sugieren que las organizaciones quieren estándares implementables, no solo casillas de cumplimiento normativo. Esa preferencia se alinea con los datos de barreras de implementación: las organizaciones frenadas por brechas de conocimiento y limitaciones técnicas quieren marcos que especifiquen qué hacer, no solo qué lograr.

El cambio de referencia en ciberseguridad que casi nadie notó

El AI Index de Stanford examinó un referente específico que merece la atención de todo líder de seguridad. Cybench —un benchmark que evalúa agentes de IA en tareas de ciberseguridad— vio aumentar las tasas de resolución sin guía del 15% en 2024 al 93% en 2025.

Vuelve a leerlo. Las tasas de resolución sin guía de agentes de IA en tareas de ciberseguridad subieron del 15% al 93% en solo doce meses.

Esta es la otra cara de la brecha de medición de IA responsable. Mientras los modelos de frontera muestran una seguridad básica sólida (las puntuaciones HELM Safety se agrupan entre 0,90 y 0,98 para la mayoría de lanzamientos 2024–2025), Stanford detectó que el rendimiento de la mayoría de modelos cae significativamente bajo condiciones de jailbreak deliberado en las pruebas de AILuminate v1.0. La conclusión es operativamente clara: los atacantes pueden automatizar cada vez más tareas sofisticadas de ciberseguridad usando IA, mientras que los modelos defensivos que parecen seguros bajo condiciones normales pueden ser vulnerados para producir resultados dañinos.

Esto importa para cómo las organizaciones piensan la arquitectura de gobernanza de IA. Si las funciones de seguridad a nivel de modelo pueden ser eludidas por adversarios usando las mismas técnicas de jailbreak, los controles a nivel de modelo no son suficientes como controles de seguridad. La gobernanza debe ocurrir en la capa de datos, aplicada de forma independiente al modelo, el prompt y el framework del agente.

Cómo Kiteworks responde a los hallazgos documentados por Stanford

Kiteworks responde a los hallazgos de Stanford en varios niveles arquitectónicos.

Para la barrera del 62% en el escalado de IA agente: Kiteworks proporciona gobernanza en la capa de datos que aplica el principio de mínimo privilegio a nivel de contenido, no solo a nivel de aplicación. Cada interacción de un agente de IA con datos sensibles pasa por verificación de identidad, evaluación de políticas de control de acceso basado en atributos, cifrado y registro de auditoría a prueba de manipulaciones, sin importar las instrucciones que reciba el agente. Cuando los datos de Stanford muestran organizaciones bloqueadas para escalar IA agente por preocupaciones de seguridad, Kiteworks ofrece el plano de control que elimina ese obstáculo.

Para la barrera de implementación de RAI (59% cita brechas de conocimiento): Kiteworks entrega controles empaquetados: paneles de cumplimiento preconfigurados para GDPR, HIPAA, CMMC y otros marcos; aplicación centralizada de políticas en todos los canales de intercambio de datos sensibles; y registros automáticos que cumplen los requisitos de evidencia. Las organizaciones no necesitan diseñar la gobernanza de IA desde cero.

Para el declive en la capacidad de respuesta ante incidentes: Kiteworks genera trazabilidad de auditoría en tiempo real sin limitaciones y sin necesidad de licencias premium, alimentando directamente el SIEM de la organización. Cuando ocurre un incidente de IA, los equipos de respuesta disponen de la evidencia para evaluar el alcance con precisión, en lugar de asumir notificaciones por defecto en el peor escenario.

Para la alineación con ISO/IEC 42001 y NIST AI RMF: Kiteworks proporciona la auditabilidad, los controles de acceso y la documentación de cadena de custodia que ambos marcos requieren, conectando los estándares específicos de IA con las obligaciones existentes de protección de datos (GDPR, HIPAA, CMMC).

Qué deben hacer los líderes de seguridad con los datos de Stanford

Primero, trata la barrera del 62% para escalar IA agente como una validación para priorizar la gobernanza en la capa de datos ahora. Las organizaciones que esperen una regulación perfecta específica para IA serán las que no puedan escalar IA cuando sus competidores sí lo hagan. La barrera ya es operativa: los primeros en moverse serán quienes construyan la infraestructura de gobernanza para eliminarla.

Segundo, revisa el patrón de agrupación en tu propia organización. Si has experimentado incidentes de IA en 2025, los datos de Stanford sugieren que tienes más probabilidades de experimentar incidentes adicionales en 2026, no menos. Investiga qué impulsa esa recurrencia. Rara vez es una sola causa raíz.

Tercero, acompaña la política de RAI con infraestructura de aplicación. El 11% de organizaciones sin políticas de RAI es una minoría cada vez más pequeña. La pregunta ya no es si tener una política, sino si la política está respaldada por controles técnicos. Una política sin aplicación es solo documentación, no gobernanza.

Cuarto, compara tus implementaciones de IA con ISO/IEC 42001 y NIST AI RMF. Estos estándares están ganando peso regulatorio y sus requisitos se traducen directamente en controles que también cumplen con GDPR, HIPAA y las nuevas leyes estatales de IA en EE. UU. Adoptar estos marcos ahora posiciona a tu organización para la aceleración regulatoria que indican los datos de Stanford.

Quinto, toma el hallazgo de Cybench como una llamada de atención para la capacidad del SOC. Si la capacidad de IA adversaria en tareas de ciberseguridad subió del 15% al 93% en un año, la capacidad defensiva de IA debe avanzar igual de rápido. Pero, más fundamentalmente, la capa de datos —donde opera Kiteworks— debe aplicar controles de acceso que no dependan ni de la seguridad del modelo defensivo ni de su sofisticación.

El AI Index 2026 de Stanford es un diagnóstico, no una predicción. Las organizaciones están adoptando IA más rápido de lo que pueden gobernarla. La frecuencia de incidentes se concentra en quienes adoptan de forma más agresiva. La capacidad de respuesta disminuye incluso cuando la percepción del riesgo aumenta. La seguridad y el riesgo son ahora la principal barrera para escalar la IA que exigen las juntas directivas. Y la brecha de medición de IA responsable significa que los controles a nivel de modelo no pueden soportar la carga solos.

Las organizaciones que gobiernen en la capa de datos en 2026 serán las que no contribuyan al conteo de incidentes de 2027 y las que realmente logren escalar sus programas de IA agente.

Preguntas frecuentes

Los datos de Stanford apuntan a la gobernanza en la capa de datos, no solo a la seguridad a nivel de modelo. Los controles específicos incluyen: verificación de identidad para cada interacción de agente de IA; control de acceso basado en atributos a nivel de contenido; vinculación de propósito que impida a los agentes acceder a datos fuera de su alcance definido; registros de auditoría a prueba de manipulaciones para cada acceso a datos; y mecanismos de corte que permitan terminar agentes problemáticos en tiempo real. El Informe de Pronóstico Kiteworks 2026 detectó que el 63% de las organizaciones no puede aplicar limitaciones de propósito a los agentes de IA y el 60% no puede terminar un agente problemático, exactamente las brechas que los datos de Stanford sugieren que están bloqueando el escalado.

Los datos de Stanford muestran que el porcentaje de organizaciones que reporta al menos un incidente de IA se mantuvo en 8% tanto en 2024 como en 2025. Lo que cambió es la agrupación: las organizaciones con 3–5 incidentes subieron del 30% al 50%, mientras que las que tuvieron solo 1–2 incidentes bajaron del 42% al 29%. Esto significa que los incidentes de IA se concentran en organizaciones que ya los han experimentado, probablemente las que adoptan IA de forma más agresiva. Para las organizaciones que han experimentado un incidente de IA, la probabilidad de experimentar incidentes adicionales el año siguiente es significativamente mayor que para quienes no los han tenido. Se recomienda realizar análisis de causa raíz y revisión arquitectónica.

Stanford detectó que las organizaciones sin políticas de RAI bajaron del 24% al 11% interanual, pero el principal obstáculo para la implementación son las brechas de conocimiento y capacitación, con un 59%. El patrón sugiere que las organizaciones tienen convicción y dirección, pero les faltan herramientas operativas y experiencia. Los datos de Stanford respaldan la demanda de controles empaquetados: plantillas de políticas preconfiguradas, registros automáticos, cumplimiento de consentimiento y retención, barreras de acceso a IA, que reduzcan la dependencia de experiencia interna escasa. Kiteworks ofrece esta arquitectura empaquetada mediante paneles de cumplimiento, aplicación centralizada de políticas y trazabilidad de auditoría unificada.

Stanford detectó que GDPR sigue siendo la influencia regulatoria más citada con un 60% (frente al 65%), mientras que ISO/IEC 42001 apareció por primera vez con un 36% y NIST AI RMF alcanzó el 33%. El patrón indica que los estándares específicos de IA se adoptan como extensiones de los marcos de protección de datos existentes, no como regímenes separados. Los equipos de cumplimiento deben mapear las implementaciones de IA frente a los cuatro marcos a la vez: los controles que cumplen uno suelen cumplir todos, y la alineación multiframework posiciona a la organización para la aceleración regulatoria que indican los datos de Stanford.

Cybench evalúa el rendimiento de agentes de IA en tareas de ciberseguridad. El salto del 15% al 93% en tasas de resolución sin guía significa que los adversarios pueden automatizar cada vez más operaciones sofisticadas de ciberseguridad usando IA. Junto con el hallazgo de Stanford en AILuminate de que el rendimiento en seguridad de la mayoría de modelos de frontera cae significativamente bajo condiciones de jailbreak, la implicación arquitectónica es clara: no se puede confiar en la seguridad a nivel de modelo como control de seguridad. La gobernanza debe ocurrir en la capa de datos, aplicada de forma independiente al modelo, el prompt o el framework del agente. Kiteworks implementa esto mediante Secure MCP Server y AI Data Gateway, asegurando que los agentes de IA no puedan acceder a datos sensibles, sin importar si se han vulnerado las funciones de seguridad del modelo.

Comienza ahora.

Es fácil comenzar a asegurar el cumplimiento normativo y gestionar eficazmente los riesgos con Kiteworks. Únete a las miles de organizaciones que confían en cómo intercambian datos confidenciales entre personas, máquinas y sistemas. Empieza hoy mismo.

Table of Content
Compartir
Twittear
Compartir
Explore Kiteworks