Pronóstico de seguridad de datos para 2026: 15 predicciones que todo líder de seguridad debe conocer

Cada organización que encuestamos tiene IA agente en su hoja de ruta. Todas. Sin excepción.

Deja que esa estadística tan contundente cale un momento. No es el 95%. No son «la mayoría de las empresas». Es el cien por cien.

Ese hallazgo por sí solo debería cambiar cómo los líderes de seguridad planifican para 2026. La pregunta no es si la IA tocará tus datos confidenciales. Ya lo hace. La pregunta es si tu organización tiene los controles para gestionarla cuando—no si—algo sale mal.

Conclusiones clave

  1. La brecha entre gobernanza y contención es el reto de seguridad que define 2026. Las organizaciones invirtieron mucho en monitorizar sistemas de IA, pero descuidaron los controles para detenerlos. El 63% no puede imponer límites de propósito a los agentes de IA, el 60% no puede terminar rápidamente agentes que se comportan mal y el 55% no puede aislar sistemas de IA de redes sensibles—una brecha de 15-20 puntos entre observar y actuar.
  2. Los registros de auditoría predicen la madurez en IA mejor que el sector, tamaño o presupuesto. Las organizaciones sin registros de auditoría con calidad de evidencia quedan 20-32 puntos por detrás en cada métrica de gobernanza de IA. El 33% carece totalmente de registros de auditoría y el 61% tiene logs fragmentados en distintos sistemas; están construyendo gobernanza de IA sobre una base que no la soporta.

  3. La implicación del consejo directivo es el mejor predictor de preparación para la IA. El 54% de los consejos no tiene la gobernanza de IA entre sus cinco prioridades principales, y esas organizaciones quedan 26-28 puntos por detrás en cada capacidad de IA. El sector gubernamental es el más expuesto, con el 71% de los consejos desentendidos mientras gestionan datos de ciudadanos e infraestructuras críticas.
  4. El gobierno está una generación atrás en controles de IA. El 90% de las organizaciones gubernamentales carecen de límites de propósito, el 76% no tiene capacidad de kill-switch y el 33% no cuenta con controles de IA dedicados. No es una brecha incremental—es una diferencia categórica que requiere transformación, no solo cumplir una lista de verificación.
  5. La Ley de IA de la UE se está convirtiendo en el estándar global de gobernanza. Las organizaciones no afectadas por la Ley de IA de la UE están 22-33 puntos por detrás en cada control clave de IA. El 82% de las organizaciones estadounidenses aún no sienten la presión, pero la regulación se extiende por la cadena de suministro, operaciones multinacionales y benchmarking competitivo, lo reconozcan o no.

Basándonos en nuestra encuesta a 225 líderes de seguridad, TI y riesgos en 10 sectores y 8 regiones, la respuesta para la mayoría de las organizaciones es un rotundo no. Y la brecha entre lo que han implementado y lo que pueden controlar es más amplia de lo que la mayoría de los ejecutivos percibe—o quiere admitir.

Esta investigación identifica 15 predicciones para la seguridad de datos empresariales en 2026. Lo que encontramos es un mercado atrapado entre la ambición y la realidad: brechas significativas en capacidades específicas de IA, una división creciente entre organizaciones con atención del consejo en la gobernanza de datos de IA y las que no la tienen, y una desconexión fundamental entre cómo se monitorizan los sistemas de IA y cómo pueden detenerlos.

2026 es el año en que la seguridad de datos de IA pasa de «preocupación emergente» a «realidad operativa». ¿El ajuste de cuentas que los líderes de seguridad llevan tiempo advirtiendo? Ya está llegando. Esto es lo que significa para tu organización.

Tabla 1: 15 predicciones de un vistazo

Predicción Hallazgo clave Confianza
1 DSPM se convierte en la base 61% no puede imponer etiquetado
2 La gobernanza pasa a «gestionada por defecto» 37% por debajo de madurez gestionada
3 Las puertas de enlace de IA centralizadas se convierten en plano de control 57% no centralizadas
4 La IA agente se vuelve generalizada 100% en la hoja de ruta
5 Los controles de contención se convierten en campo de batalla 63% carece de límites de propósito
6 Los riesgos de IA dominan la agenda de seguridad Solo 36% tiene visibilidad
7 La cadena de suministro se amplía a atestaciones de IA 72% sin SBOM
8 El riesgo de terceros gira hacia la visibilidad 89% nunca practicó IR con socios
9 La respuesta a incidentes se integra con IA 60% carece de detección de anomalías en IA
10 Los registros de auditoría se vuelven clave 33% carece de registros; 61% fragmentados
11 Los controles de datos de entrenamiento se vuelven regulatorios 78% no puede validar
12 La gobernanza de IA llega a todos los consejos 54% de los consejos no implicados
13 La Ley de IA de la UE crea plantilla global Brecha de control de 22-33 puntos
14 PQC se vuelve generalizado 84% no lo ha implementado
15 La soberanía de datos se vuelve imperativo para la IA 29% cita exposición transfronteriza

Brecha entre gobernanza y contención: el problema central del que nadie quiere hablar

Las organizaciones han pasado los últimos dos años invirtiendo en controles de gobernanza de datos de IA. Han implementado supervisión humana en el proceso (el 59% ya la tiene), monitorización continua (58%) y prácticas de minimización de datos (56%). Son capacidades relevantes. Los equipos de seguridad pueden mostrar dashboards. Pueden enseñar documentación a los auditores. Pueden demostrar que alguien, en algún lugar, está vigilando.

Pero vigilar no es detener. Y esa diferencia importa más de lo que la mayoría de las organizaciones ha reconocido.

La inversión en contención—la capacidad de detener sistemas de IA cuando algo sale mal—cuenta una historia muy distinta:

  • El 63% de las organizaciones no puede imponer límites de propósito a los agentes de IA
  • El 60% no puede terminar rápidamente un agente que se comporta mal
  • El 55% no puede aislar sistemas de IA del acceso a la red más amplia

Vuelve a leer esos números. Casi dos tercios de las organizaciones han implementado agentes de IA que no pueden restringir. Seis de cada diez no pueden accionar el kill switch cuando un agente empieza a hacer algo que no debería. Más de la mitad no puede evitar el movimiento lateral si un sistema de IA se ve comprometido o empieza a comportarse de forma inesperada.

Eso es una brecha de 15-20 puntos entre observar y actuar. La mayoría puede ver a un agente de IA hacer algo inesperado. No pueden evitar que exceda su alcance autorizado, apagarlo rápidamente o aislarlo de sistemas sensibles. Han construido sofisticadas plataformas de observación para un problema que requiere disyuntores.

Esta brecha entre gobernanza y contención es el reto central de seguridad de cara a 2026. ¿Por qué existe? Porque las organizaciones invirtieron en los controles más fáciles de implementar—el registro de logs no requiere cambios de arquitectura—y más fáciles de explicar a los auditores. «Estamos monitorizando» suena a control aunque no lo sea. El trabajo difícil de construir capacidad real de detención se fue posponiendo. Y posponiendo. Y posponiendo otra vez.

Las iniciativas para cerrar esta brecha son las más grandes de nuestra encuesta—el 39% de las organizaciones tiene límites de propósito en su hoja de ruta de implementación, el 34% tiene planificada la capacidad de kill-switch. Saben exactamente qué está roto. Han identificado los huecos correctos. La autoconciencia casi resulta tranquilizadora.

Pero tener iniciativas no es ejecutar. Nunca lo ha sido. Históricamente, solo el 60-70% de las hojas de ruta de seguridad se cumplen en tiempo y forma. Incluso con ejecución agresiva, un cuarto de las organizaciones seguirá sin controles básicos de contención a finales de 2026. Y aquí viene lo incómodo: las organizaciones que implementan IA más rápido suelen ser las que tienen las brechas de contención más grandes. Están acelerando en una curva que no pueden tomar, apostando a que resolverán los controles antes de necesitarlos.

Eso no es una estrategia. Es esperanza con presupuesto.

Tabla 2: Chequeo de realidad sobre el riesgo de terceros

Capacidad Estado actual
Visibilidad sobre el manejo de datos de IA por parte de socios Solo el 36% la tiene
Alguna vez practicó IR con proveedores externos Solo el 11% lo ha hecho
Playbooks conjuntos de IR con socios Solo el 13% los tiene
Kill switch automatizado para acceso de socios Solo el 16% lo tiene

Por qué los registros de auditoría lo predicen todo

Un hallazgo nos sorprendió más que ningún otro: las organizaciones sin registros de auditoría con calidad de evidencia muestran una madurez mucho menor en cada dimensión de IA. No por unos pocos puntos porcentuales—por 20 a 32 puntos.

Las organizaciones sin registros de auditoría tienen la mitad de probabilidades de contar con capacidades de recuperación de datos de entrenamiento de IA (26% frente a 58%). Están 20 puntos por detrás en límites de propósito, 26 puntos por detrás en controles humanos en el proceso. No son diferencias incrementales. Representan niveles de madurez totalmente distintos. Dos organizaciones del mismo sector, región y tamaño—una con registros de auditoría, otra sin ellos—no se parecen en nada en gobernanza de datos de IA. La capacidad de registro de auditoría predice el resto de la postura de seguridad mejor que cualquier otro factor que medimos.

Aun así, el 33% de las organizaciones carece totalmente de registros de auditoría con calidad de evidencia. Y aquí viene lo que debería quitar el sueño a los líderes de seguridad: otro 61% tiene logs fragmentados dispersos en distintos sistemas. Los logs existen. Simplemente no están agregados, normalizados ni son accionables en un plazo relevante.

Cuando ocurre una respuesta a incidentes o un auditor hace preguntas concretas, los equipos de seguridad de estas organizaciones pasan horas—a veces días—correlacionando manualmente logs entre plataformas, intentando reconstruir lo ocurrido. Es como armar un rompecabezas cuyas piezas están repartidas en una docena de cajas distintas, cada una con su formato, su política de retención, sus huecos e inconsistencias.

Eso no es evidencia. Es arqueología. Y la arqueología no resiste bien en procesos regulatorios ni en notificaciones de brechas.

La verdad incómoda que los equipos de infraestructura no quieren oír: no puedes construir gobernanza de datos de IA sobre infraestructura fragmentada. Las organizaciones que intentan crear registros de auditoría con calidad de evidencia sobre sistemas de intercambio de datos disgregados—plataformas separadas para correo electrónico, uso compartido de archivos, MFT, almacenamiento en la nube, herramientas de colaboración, sistemas de IA—están construyendo sobre una base que no lo soporta. La fragmentación no es una molestia menor. Es una limitación estructural que ninguna herramienta puede superar del todo.

La gobernanza de datos de entrenamiento muestra patrones similares, con implicaciones que llegan a un terreno regulatorio que la mayoría de las organizaciones aún no ha mapeado. Cuando los reguladores preguntan, «¿Cómo sabes que no hay información personal identificable en tu modelo?»—el 78% de las organizaciones no puede responder. Están entrenando o ajustando modelos sin validar la integridad de los datos de entrada. Confían en que los datos de entrenamiento estén limpios sin ningún mecanismo para comprobarlo.

Cuando un titular de datos ejerce su derecho de supresión bajo GDPR, CCPA/CPRA o nuevas regulaciones de IA—el 53% no tiene mecanismo para eliminar sus datos de modelos entrenados. O bien reentrenarán desde cero (caro, lento y a menudo impráctico para sistemas en producción) o confiarán en que nadie lo pida (una estrategia con fecha de caducidad muy próxima).

El «derecho al olvido» llega a la IA. La tendencia regulatoria es clara—cada marco de privacidad importante está extendiendo los derechos de los titulares de datos para cubrir el entrenamiento e inferencia de IA. Y casi nadie está listo para cumplir.

El efecto del consejo: por qué la implicación del liderazgo predice más que el presupuesto o el tamaño

La implicación del consejo directivo es el mejor predictor de madurez en IA de nuestra encuesta. Más fuerte que el sector. Más fuerte que la región. Más fuerte que el tamaño de la organización. Más fuerte que el presupuesto de seguridad.

El 54% de los consejos no tiene la gobernanza de datos de IA entre sus cinco temas principales. Esas organizaciones quedan 26-28 puntos por detrás en cada métrica importante de IA. No en algunas métricas. En todas las que medimos.

Las organizaciones sin implicación del consejo tienen la mitad de probabilidades de realizar evaluaciones de impacto de IA (24% frente a 52%). Están 26 puntos por detrás en límites de propósito, 24 puntos por detrás en controles humanos en el proceso. El patrón es claro y consistente: cuando los consejos no preguntan por la gobernanza de datos de IA, las organizaciones no la construyen. Los recursos van a otros sitios. Las prioridades cambian según lo que el liderazgo mide. Los equipos de seguridad pueden insistir todo lo que quieran, pero sin atención del consejo, la gobernanza de datos de IA pierde las batallas presupuestarias.

La variación por sector cuenta su propia historia. El gobierno muestra la mayor brecha: el 71% de los consejos no está implicado en gobernanza de datos de IA. Servicios profesionales lidera con el 80% de implicación—una diferencia de 51 puntos entre el rezagado y el líder.

Piénsalo en la práctica: el gobierno gestiona datos de ciudadanos, información clasificada e infraestructuras críticas con la menor supervisión del consejo sobre riesgos de IA de todos los sectores que medimos. Las organizaciones con los datos más sensibles y mayores riesgos tienen la menor atención del liderazgo sobre este vector emergente.

Los consejos de salud muestran un 55% de desimplicación. Servicios financieros, un 40%. Tecnología—el sector que construye e implementa estos sistemas—aún tiene el 47% de los consejos sin priorizar la gobernanza de datos de IA.

Esta correlación apunta a una acción clara, y no es técnica: si la gobernanza de datos de IA no está en la agenda de tu consejo, ponla ahí. Los líderes de seguridad que esperan a que el consejo descubra el problema por sí mismo están dejando el calendario al azar. Los datos muestran que las organizaciones donde el liderazgo presta atención construyen las capacidades que importan. Donde el liderazgo mira a otro lado, no. Es así de directo y predecible.

Tabla 3: Implicación del consejo por sector

Sector Consejo NO implicado en gobernanza de IA Brecha respecto al líder
Gobierno 71% -51 puntos
Salud 55% -35 puntos
Tecnología 47% -27 puntos
Servicios financieros 40% -20 puntos
Servicios profesionales 20% Referencia

Hallazgos por sector y región: líderes, rezagados y lecciones

El gobierno está una generación atrás. No es un retraso incremental—es categórico. Los números son tan contundentes que vale la pena repetirlos: el 90% carece de límites de propósito. El 76% no tiene capacidad de kill-switch. El 33% no cuenta con controles de IA dedicados.

Deja que ese último número cale: un tercio de las organizaciones gubernamentales ha implementado IA sin nada—ni controles parciales, ni medidas ad hoc, nada—que regule específicamente cómo esos sistemas acceden a datos sensibles. Tienen IA en entornos productivos. Tienen datos de ciudadanos circulando por los sistemas. No tienen gobernanza de IA que conecte ambos aspectos.

Estas organizaciones gestionan datos de ciudadanos e infraestructuras críticas con controles de IA que van a la zaga de todos los sectores que medimos. El reto de gobernanza de datos de IA en el gobierno requiere transformación, no mejoras incrementales. Una lista de verificación no cierra una brecha generacional. Adoptar el marco de la Ley de IA de la UE como base—aunque no sea legalmente obligatorio—sería un punto de partida, no el estado final.

Australia es la referencia—y la prueba de que los sacrificios no son inevitables. Las organizaciones australianas muestran +10-20 puntos en casi cada métrica, con los pipelines de implementación más sólidos de la encuesta. Pero lo que hace que Australia sea realmente instructiva, y no solo impresionante, es que demuestran que seguridad e innovación no son excluyentes.

Las organizaciones australianas tienen tanto mayores tasas de adopción de IA como controles más sólidos. No eligen entre avanzar rápido y gobernar bien. Hacen ambas cosas a la vez y se distancian en ambas dimensiones. Generan ventaja acumulativa en vez de sacrificar seguridad por velocidad o viceversa.

Cualquier organización que diga que no puede implementar controles sin frenar la innovación debería estudiar lo que hace Australia. La excusa no se sostiene ante la evidencia.

El sector salud enfrenta graves brechas en respuesta a incidentes pese a manejar los datos más sensibles. El 77% de las organizaciones de salud no ha probado sus objetivos de tiempo de recuperación. No saben cuánto tardarán en recuperarse hasta que están en medio de un incidente—el peor momento para descubrir que tus suposiciones eran erróneas. El 64% carece de detección de anomalías en IA. El 68% opera playbooks manuales de IR.

Estas organizaciones gestionan información de salud protegida con capacidades de IR que no sobrevivirán su primer incidente serio de IA. La combinación de datos muy sensibles, gran exposición regulatoria y graves brechas operativas crea un riesgo concentrado que debería preocupar a cualquiera en el sector.

La manufactura ve puntos ciegos por todas partes. El 67% cita brechas de visibilidad como principal preocupación—21 puntos por encima de la media global. Cadenas de suministro complejas y multinivel con casi nula visibilidad sobre cómo se mueven los datos. Proveedores de administración de riesgos de terceros entregando datos a sus propios proveedores, que a su vez los entregan a los suyos, sin visibilidad en ningún eslabón.

Para la manufactura, la visibilidad de terceros no es un extra ni un elemento futuro de la hoja de ruta. Es existencial. No puedes proteger lo que no ves, y la manufactura ve menos que casi nadie.

Los servicios profesionales operan bajo presión—y la presión está dando resultados. 80% de atención del consejo. 67% de adopción de puertas de enlace centralizadas. 80% con directrices éticas de IA. Estos números lideran casi todas las categorías que medimos. ¿Por qué este desempeño fuera de serie?

La exposición de datos de clientes impulsa esta postura agresiva. Cada decisión de control en servicios profesionales se evalúa bajo una óptica específica e implacable: ¿Qué pasa si se filtran datos de un cliente? ¿Qué pasa si la información confidencial de un cliente termina en un modelo que no podemos explicar o en un set de entrenamiento que no podemos auditar? ¿Qué pasa con nuestra reputación, nuestra responsabilidad legal, nuestras relaciones con clientes?

El temor es apropiado. La postura de gobernanza resultante es lo que ocurre cuando la inversión impulsada por el miedo se canaliza productivamente en vez de disolverse en parálisis.

Las preocupaciones sobre soberanía regional también varían mucho, y los patrones muestran dónde la aplicación regulatoria ya ha cambiado comportamientos frente a donde las organizaciones aún operan en la teoría.

Las organizaciones de Oriente Medio (EAU y Arabia Saudí) muestran un 42-45% de preocupación por el manejo de IA por parte de terceros—impulsado por requisitos explícitos de localización de datos que conllevan sanciones reales por incumplimiento. Alemania destaca con un 60% de preocupación por el intercambio no autorizado, casi el doble de la media global. La aplicación del GDPR ha hecho que la responsabilidad sobre el flujo de datos sea tangible para las organizaciones alemanas. Han visto a colegas enfrentar consecuencias. Han visto sanciones. Han ajustado sus prácticas en consecuencia.

Estas regiones ven el problema de la soberanía con claridad porque ya han sentido la presión regulatoria. La mayoría de las demás aún opera con tiempo prestado, asumiendo que la aplicación no les llegará o que tendrán aviso antes de que ocurra.

Riesgo de terceros: la crisis de visibilidad que nadie ha resuelto

Los cuestionarios anuales a proveedores no van a funcionar en un entorno impulsado por IA. El enfoque de casillas para la administración de riesgos de terceros—enviar un cuestionario, recibir respuestas cuidadosamente redactadas, archivarlo para cumplimiento, repetir al año siguiente—ya era insuficiente para el manejo tradicional de datos. Para la IA, no solo es insuficiente. Es teatro.

Pero el 89% de las organizaciones no tiene nada para reemplazarlo. Saben que el enfoque antiguo no funciona. No han construido el nuevo.

El problema de visibilidad es grave y en gran parte no se ha abordado:

  • Solo el 36% tiene alguna visibilidad sobre cómo los socios manejan datos en sistemas de IA
  • El 89% nunca ha practicado respuesta a incidentes con sus proveedores externos
  • El 87% carece de playbooks conjuntos de IR con socios
  • El 84% no tiene mecanismo automatizado para revocar el acceso de socios rápidamente cuando es necesario

Cuando un socio sufre una brecha—y los socios sufren brechas con frecuencia—casi nueve de cada diez organizaciones improvisarán su respuesta. Sin playbook. Sin práctica. Sin plan de comunicación coordinado. La primera vez que gestionen un incidente conjunto con un proveedor crítico será durante un incidente real, cuando los riesgos son máximos, el tiempo escaso y nadie tiene el lujo de improvisar.

La cadena de suministro de software amplifica estos riesgos a un terreno que la mayoría de las organizaciones aún no ha considerado del todo. El 72% no puede producir un inventario fiable de sus componentes de software. Cuando surja la próxima vulnerabilidad tipo Log4j—y surgirá—casi tres cuartas partes de las organizaciones tendrán que averiguar su exposición sobre la marcha porque no tienen un bill of materials de software. Llamarán a proveedores, buscarán documentación, revisarán sistemas manualmente mientras el reloj corre.

La cadena de suministro de IA es peor, porque al menos los componentes de software tienen estándares de inventario, aunque la mayoría no los use. No hay estándar para atestaciones de modelos de IA. Casi nadie rastrea la procedencia de modelos de forma sistemática. Las organizaciones saben que lo necesitan—el 35% cita riesgos de cadena de suministro de IA entre sus tres principales preocupaciones. Tienen razón en preocuparse.

Pero las herramientas y estándares aún no existen, y las organizaciones no están creando soluciones alternativas. Esperan a que alguien más lo resuelva mientras siguen implementando modelos que no pueden verificar del todo. Es un riesgo calculado, y el cálculo puede no envejecer bien.

Tabla 4: Chequeo de realidad sobre el riesgo de terceros

Capacidad Estado actual
Visibilidad sobre el manejo de datos de IA por parte de socios Solo el 36% la tiene
Alguna vez practicó IR con proveedores externos Solo el 11% lo ha hecho
Playbooks conjuntos de IR con socios Solo el 13% los tiene
Kill switch automatizado para acceso de socios Solo el 16% lo tiene

Tendencia regulatoria: la Ley de IA de la UE como plantilla global de facto

Las organizaciones no afectadas por la Ley de IA de la UE están 22-33 puntos por detrás en cada control clave de IA. Las brechas no son incrementales—son categóricas:

  • El 74% de las organizaciones no afectadas carece de evaluaciones de impacto de IA (frente al 41% de las afectadas)
  • El 72% carece de límites de propósito (frente al 46%)
  • El 84% no ha realizado red-teaming de IA (frente al 61%)
  • El 48% carece de controles humanos en el proceso (frente al 26%)

La Ley de IA de la UE está creando un mercado de dos velocidades, lo reconozcan o no las organizaciones fuera de Europa. Las que están bajo presión regulatoria construyen infraestructura de gobernanza porque deben hacerlo. Las que están fuera de esa presión, en su mayoría no lo hacen porque aún no es obligatorio. El efecto regulatorio funciona exactamente como se diseñó—y está generando una divergencia que será costosa de cerrar después.

El 82% de las organizaciones estadounidenses afirma no sentir aún la presión de la Ley de IA de la UE. Ese «aún» es clave en la frase. La regulación se extiende por mecanismos que no requieren jurisdicción directa: requisitos de administración de riesgos en la cadena de suministro (clientes europeos exigiendo cumplimiento a proveedores estadounidenses), operaciones multinacionales (cualquier organización que opere en Europa debe cumplir para esas operaciones) y benchmarking competitivo (lo que se considera «buena gobernanza» lo define quien la construye primero, y ahora mismo son los europeos).

Las organizaciones que descarten la Ley de IA de la UE como un problema europeo se encontrarán 22-33 puntos por detrás en gobernanza de datos de IA a medida que el marco se convierte en la base global. O bien se pondrán al día después, a mayor coste y con plazos más ajustados, o perderán negocio frente a competidores que invirtieron antes. Ninguna opción es atractiva.

La soberanía de datos también ha pasado de almacenamiento a procesamiento, y la mayoría de las organizaciones no ha ajustado sus controles ni su mentalidad. Saber dónde residen los datos ya no basta. El 29% cita transferencias transfronterizas de IA como principal exposición, pero la mayoría solo ha resuelto la soberanía para el almacenamiento—no para dónde se procesan, entrenan o infieren los datos.

Un prompt enviado a un proveedor de IA en la nube puede procesarse en otra jurisdicción, usarse para ajustar modelos alojados en otro país o generar resultados que cruzan varias fronteras antes de volver al usuario. Los controles tradicionales de residencia de datos no abordan esto. Se diseñaron para datos en reposo, no para datos en movimiento a través de pipelines de IA. Las organizaciones que gobiernan el almacenamiento pero ignoran el procesamiento afrontarán conversaciones de cumplimiento cada vez más incómodas a medida que los reguladores se pongan al día con el funcionamiento de la IA.

La criptografía poscuántica representa otra presión de calendario que la mayoría está ignorando o posponiendo. El 84% no la ha implementado. Casi la mitad ni la usa, y sospechamos que el número real es peor—algunos encuestados probablemente sobreestimaron capacidades que no tienen.

La amenaza de «cosechar ahora, descifrar después» ya está activa—los adversarios pueden capturar datos cifrados hoy y esperar a que los ordenadores cuánticos los rompan. Para datos que deben seguir siendo confidenciales durante una década o más—registros médicos, información financiera, material clasificado, propiedad intelectual, documentos legales—la ventana para actuar se cierra. Las organizaciones que no hayan empezado a planificar ya están por detrás de una hoja de ruta de migración que llega hasta 2030 y más allá.

Qué hacer ahora: acciones prioritarias que no pueden esperar

Prioridades inmediatas (Q1-Q2 2026):

Cierra la brecha del kill-switch. El 60% de las organizaciones no puede terminar agentes de IA rápidamente. Cuando el primer gran incidente exponga esto—y ocurrirá, porque los incidentes siempre sacan a la luz las brechas—no querrás explicar a tu consejo por qué no tenías contención básica. Esto es lo mínimo para operar IA en producción, y la mayoría no lo tiene.

Implementa límites de propósito. El 63% no tiene límites sobre lo que los agentes de IA pueden hacer. Es la mayor brecha de capacidad de nuestra encuesta y la más probable de generar titulares cuando falle. Un agente de IA que puede acceder a lo que quiera acabará accediendo a algo que no debe.

Audita tus registros de auditoría. El 33% carece totalmente de registros con calidad de evidencia. Otro 61% tiene logs dispersos entre sistemas que nadie puede correlacionar en un plazo relevante. No puedes construir gobernanza de datos de IA sobre infraestructura fragmentada, por muy buenas que sean tus herramientas. Si tus logs requieren días de correlación manual para reconstruir un incidente, no son registros de auditoría. Son archivos históricos de valor forense limitado.

Haz inventario de tus casos de uso de IA agente. No puedes gobernar lo que no conoces. La IA en la sombra prolifera más rápido de lo que la mayoría de los equipos de seguridad imagina—unidades de negocio implementando capacidades que seguridad nunca ha evaluado, aprobado ni sabe que existen. Empieza por tener visibilidad de lo que está en marcha.

Evalúa tu exposición a IA de terceros. Solo el 36% tiene visibilidad sobre el manejo de datos de IA por parte de socios. El resto confía en contratos para protegerse de riesgos que no ve ni ha medido. Averigua qué hacen tus proveedores con tus datos en sus sistemas de IA, no lo que dicen sus contratos.

Tabla 5: Principales riesgos de seguridad y privacidad en IA

Riesgo % que lo cita como principal preocupación Madurez actual del control
Manejo de datos por proveedores de IA de terceros 30% Débil — solo el 36% tiene visibilidad
Envenenamiento de datos de entrenamiento 29% Muy débil — 22% tiene validación previa al entrenamiento
Filtración de información personal identificable vía outputs/embeddings 27% Débil — 37% tiene límites de propósito
Amenazas internas amplificadas por IA 26% Moderado — 59% tiene humanos en el proceso
Datos personales en prompts 35% Muy débil — mayormente políticas, rara vez técnicas
IA en la sombra 23% Muy débil — pocos tienen herramientas de descubrimiento

Prioridades a medio plazo (H2 2026):

Implementa detección de anomalías en IA. El 60% carece de ella—la mayor brecha de respuesta a incidentes que medimos. Pasar del 40% de cobertura a una detección adecuada requiere adquirir herramientas, construir pipelines de datos, ajustar modelos, procesos de gestión de alertas y capacitación del personal. No es una implementación rápida. Empieza ya si quieres tener capacidad a fin de año.

Construye gobernanza de datos de entrenamiento. El 78% no puede validar los datos que entran en los pipelines de entrenamiento. El 77% no puede rastrear la procedencia. El 53% no puede recuperar datos de entrenamiento tras incidentes. Los reguladores preguntarán cómo sabes qué hay en tus modelos. «No lo sabemos» no es una respuesta que envejezca bien.

Establece playbooks conjuntos de IR con proveedores críticos. El 87% carece de ellos. El 89% nunca ha practicado respuesta a incidentes con socios. Practica antes de que tengas que responder juntos de verdad, porque el peor momento para establecer protocolos de comunicación y derechos de decisión es en medio de un incidente.

Consolida infraestructura fragmentada de intercambio de datos. El 61% opera sistemas disgregados que no pueden soportar registros de auditoría con calidad de evidencia ni gobernanza unificada de datos de IA. Las amenazas modernas requieren infraestructura moderna, y no puedes pasar de fragmentado a unificado solo con parches.

Exige atestaciones de IA de terceros en renovaciones de contratos. Los cuestionarios ya no bastan. Incluye requisitos de manejo de IA en tus acuerdos de proveedores para 2026 mientras tienes margen de negociación, no después de que un incidente obligue a la conversación.

La brecha se ampliará antes de cerrarse

Este es el patrón que debería preocupar a cualquier líder de seguridad mirando a 2026 y más allá: las organizaciones que implementan IA más agresivamente también la gobiernan mejor. Las que apenas empiezan su camino en IA casi no tienen nada implementado—el 79-81% carece de controles básicos de contención—y están a punto de acelerar su implementación porque la presión competitiva lo exige.

Esto crea bifurcación, no convergencia. Los líderes acumulan ventaja. Cada control que implementan facilita construir y operar el siguiente. Cada incidente que evitan es aprendizaje que sus competidores no tendrán hasta que lo sufran. Los rezagados quedan cada vez más atrás trimestre a trimestre. La brecha entre organizaciones preparadas y no preparadas se ampliará durante 2026, no se reducirá.

La próxima ola de incidentes de seguridad en IA probablemente vendrá de organizaciones que se apresuran a implementar sin la infraestructura de gobernanza que las experimentadas han construido a base de prueba y error. Aprenderán las mismas lecciones—pero de forma más pública, más costosa y con menos tiempo para recuperarse antes de que llegue el siguiente incidente.

Las 15 predicciones de nuestro informe completo identifican hacia dónde va el mercado. Las brechas muestran dónde están expuestas las organizaciones. El 100% tiene IA en la hoja de ruta. La mayoría no puede gobernarla. El 63% no puede imponer límites de propósito. El 60% no puede terminar agentes que se comportan mal. El 53% no puede recuperar datos de entrenamiento tras incidentes.

Las predicciones te dicen hacia dónde va esto. Las brechas te dicen dónde eres vulnerable. Lo que ocurra en tu organización depende totalmente de lo que hagas con esa información.

Preguntas frecuentes

El 100% de las organizaciones encuestadas tiene IA agente en su hoja de ruta—sin excepciones. La investigación, basada en 225 líderes de seguridad, TI y riesgos en 10 sectores y 8 regiones, encontró planes universales de adopción de IA. El reto no es si las organizaciones implementarán IA, sino si tienen los controles de gobernanza y contención para gestionarla de forma segura.

La brecha entre gobernanza y contención se refiere a la diferencia de 15-20 puntos entre la capacidad de las organizaciones para monitorizar sistemas de IA y su capacidad para detenerlos. Aunque el 59% tiene supervisión humana en el proceso y el 58% monitorización continua, solo el 37% tiene límites de propósito y el 40% capacidad de kill-switch. La mayoría puede observar a los agentes de IA haciendo algo inesperado, pero no puede evitar que excedan su alcance autorizado ni apagarlos rápidamente.

Solo el 40% de las organizaciones tiene capacidad de kill-switch para terminar rápidamente agentes de IA que se comportan mal. El 60% restante carece de este control básico de contención, lo que significa que no pueden detener rápidamente un sistema de IA que empieza a operar fuera de los parámetros esperados o accede a datos que no debería. Incluso con ejecución agresiva, se proyecta que entre el 26% y el 36% seguirá sin esta capacidad a finales de 2026.

El sector gubernamental es el más expuesto, con el 90% sin límites de propósito, el 76% sin capacidad de kill-switch y el 33% sin controles de IA dedicados. Le sigue salud, con graves brechas en respuesta a incidentes—el 77% no ha probado objetivos de tiempo de recuperación y el 64% carece de detección de anomalías en IA. Manufactura enfrenta grandes desafíos de visibilidad con terceros, con el 67% citando puntos ciegos en sus cadenas de suministro.

Las organizaciones con registros de auditoría con calidad de evidencia muestran ventajas de 20-32 puntos en cada métrica de IA medida, incluyendo recuperación de datos de entrenamiento, controles humanos en el proceso y límites de propósito. Los registros de auditoría sirven como infraestructura fundamental que permite responsabilidad, respuesta a incidentes y cumplimiento de datos. El 33% sin registros de auditoría y el 61% con logs fragmentados no pueden construir gobernanza de datos de IA efectiva porque carecen de la capacidad de demostrar qué ocurrió cuando algo sale mal.

Las organizaciones no afectadas directamente por la Ley de IA de la UE están 22-33 puntos por detrás en controles de IA como evaluaciones de impacto, límites de propósito y red teaming. La regulación se extiende globalmente a través de requisitos de administración de riesgos en la cadena de suministro (clientes europeos exigiendo cumplimiento), operaciones multinacionales y benchmarking competitivo. El 82% de las organizaciones estadounidenses afirma no sentir presión aún, pero la Ley de IA de la UE está definiendo de facto lo que es «buena gobernanza de datos de IA» en todo el mundo, creando un mercado de dos velocidades entre organizaciones que cumplen y las que no.

Comienza ahora.

Es fácil comenzar a asegurar el cumplimiento normativo y gestionar eficazmente los riesgos con Kiteworks. Únete a las miles de organizaciones que confían en cómo intercambian datos confidenciales entre personas, máquinas y sistemas. Empieza hoy mismo.

Table of Content
Compartir
Twittear
Compartir
Explore Kiteworks