Los agentes de IA son la mayor amenaza para la seguridad de los datos que no estás gestionando
Algo cambió silenciosamente en la seguridad empresarial durante el último año, y la mayoría de las organizaciones no se dio cuenta.
Los agentes de IA — sistemas autónomos que razonan, actúan e interactúan con recursos empresariales de forma independiente — pasaron de programas piloto a flujos de trabajo en producción. Están ajustando asignaciones de recursos en la nube, ejecutando procesos empresariales de varios pasos, consultando bases de datos e interactuando con APIs externas. Hacen todo esto con una independencia considerable, a velocidad de máquina y, a menudo, sin supervisión humana continua.
Y aquí está el punto que debería preocupar a todo CISO: la infraestructura de seguridad que regula estos agentes no ha avanzado al ritmo de su implementación. Ni de cerca.
El informe Cyber Pulse de Microsoft confirma que más del 80% de las empresas Fortune 500 ya implementan agentes de IA activos, muchos creados con herramientas low-code y no-code que ponen la creación de agentes en manos de usuarios de negocio, no solo desarrolladores. El mismo informe lanza una advertencia clara: estos agentes «se están expandiendo más rápido de lo que algunas empresas pueden verlos». Esa brecha de visibilidad no es una simple molestia. Microsoft la califica como un riesgo empresarial que requiere gobernanza y seguridad urgente.
La pregunta ya no es si tu organización usará agentes de IA. Es si los gobernarás antes de que provoquen una filtración que no puedas contener.
5 Conclusiones Clave
- Los agentes de IA se están expandiendo más rápido de lo que los equipos de seguridad pueden detectarlos. Más del 80% de las empresas Fortune 500 ya implementan agentes de IA activos creados con herramientas low-code y no-code. El informe Cyber Pulse de Microsoft advierte que estos agentes «se están expandiendo más rápido de lo que algunas empresas pueden verlos», generando una brecha de visibilidad que el informe califica explícitamente como un riesgo empresarial. Cuando los sistemas autónomos pueden razonar, actuar y acceder a recursos empresariales de forma independiente, la ausencia de gobernanza no es solo una brecha: es una puerta abierta.
- Una de cada tres organizaciones considera el acceso no supervisado a datos por parte de agentes de IA como una amenaza crítica. Según el informe Data Security Landscape 2025 de Proofpoint, el 32% de las organizaciones identifica el acceso no supervisado a datos por agentes de IA como una amenaza crítica. Estos agentes suelen operar como «superusuarios» altamente privilegiados, accediendo a datos sensibles en entornos en la nube e híbridos con mucha menos supervisión de la que recibiría cualquier empleado humano.
- Los agentes de IA pueden ser utilizados como arma mediante instrucciones ocultas — sin interacción del usuario. Trend Micro demostró que los agentes de IA multimodales pueden ser manipulados mediante instrucciones ocultas incrustadas en imágenes o documentos, provocando la exfiltración de datos sensibles sin que el usuario haga clic en nada. Investigadores en arXiv construyeron un exploit de extremo a extremo donde las instrucciones ocultas en una página de blog maliciosa provocaron que un agente basado en RAG recuperara secretos de su base de conocimiento y los enviara a un servidor controlado por el atacante.
- El 44% de las organizaciones carece de supervisión adecuada sobre el uso de IA generativa. Proofpoint encontró que el 44% de las organizaciones admite no tener supervisión adecuada sobre el uso de IA generativa, incluidos herramientas y agentes. La Cloud Security Alliance reporta una brecha de concienciación aguda: el 52% de los ejecutivos C-suite afirman estar familiarizados con tecnologías de IA, frente a solo el 11% del personal de primera línea — quienes son los que usan estas herramientas a diario.
- La brecha de gobernanza es una bomba de tiempo financiera. El coste promedio de una filtración de datos ahora es de $4,88 millones (IBM Cost of a Data Breach Report, 2024). Las multas de la Ley de IA de la UE alcanzan hasta €35 millones o el 7% de los ingresos anuales globales. Las sanciones del RGPD llegan a €20 millones o el 4% de los ingresos. Con incidentes de privacidad en IA aumentando un 56,4% año tras año (Stanford 2025 AI Index Report), las organizaciones que no demuestran gobernanza de IA enfrentan una exposición financiera y legal cada vez mayor.
El espacio de trabajo agentivo ya está aquí — y la mayoría de las organizaciones no puede ver lo que ocurre dentro
El informe Data Security Landscape 2025 de Proofpoint introdujo un término que describe perfectamente el momento actual: el «espacio de trabajo agentivo». Se refiere a un entorno operativo donde herramientas de productividad impulsadas por IA y agentes autónomos gestionan datos sensibles junto a humanos. La conclusión del informe es directa: muchas organizaciones «carecen de la visibilidad y controles necesarios para gobernar este nuevo espacio de trabajo agentivo».
Las cifras detrás de esa conclusión cuentan una historia preocupante. Casi la mitad de los encuestados identifica la dispersión de datos en entornos en la nube e híbridos como una de sus principales preocupaciones. Dos de cada cinco organizaciones citan la pérdida de datos a través de herramientas de IA generativa públicas o empresariales como un problema prioritario. Más de un tercio está preocupado por el uso de datos sensibles en el entrenamiento de modelos de IA. Y el 32% de las organizaciones ve el acceso no supervisado a datos por agentes de IA — que a menudo operan como «superusuarios» altamente privilegiados — como una amenaza crítica.
Lo que hace esto especialmente peligroso es la brecha entre percepción y realidad. La Cloud Security Alliance encontró que el 52% de los ejecutivos C-suite afirman estar familiarizados con tecnologías de IA, pero solo el 11% del personal dice lo mismo. Eso es un abismo de gobernanza. Quienes toman decisiones sobre políticas de IA suelen sobreestimar la preparación de su organización, mientras que quienes realmente usan las herramientas de IA carecen del conocimiento necesario para utilizarlas de forma segura.
Mientras tanto, el 44% de las organizaciones admite no tener supervisión adecuada sobre el uso de IA generativa. Eso incluye tanto las herramientas que los empleados usan a diario como los agentes que cada vez están más integrados en los flujos de trabajo empresariales.
Confías en que tu organización es segura. Pero ¿puedes verificarlo?
Leer ahora
Cómo se utilizan los agentes de IA como arma: inyección de prompts y exfiltración de datos
Si la brecha de visibilidad fuera el único problema, sería gestionable. Pero los agentes de IA no solo crean exposición pasiva. Pueden ser utilizados activamente como arma — y la investigación que lo demuestra es reciente y alarmante.
La investigación de Trend Micro sobre vulnerabilidades en agentes de IA demostró que los agentes multimodales pueden ser manipulados mediante instrucciones ocultas en imágenes o documentos. El ataque no requiere ninguna interacción del usuario. Un documento o imagen con prompts ocultos puede provocar que un agente exfiltre datos sensibles — incluyendo información personal como nombres, números de la Seguridad Social y datos de contacto, información financiera, información de salud protegida, secretos empresariales, credenciales de autenticación y documentos confidenciales subidos — sin que el usuario se entere.
La superficie de ataque se extiende a la web. Trend Micro mostró que los agentes que analizan páginas web pueden leer prompts maliciosos incrustados en sitios, los cuales instruyen al agente para exfiltrar datos almacenados en memoria — como claves API o datos de contacto — a destinos controlados por atacantes. Si se permite el tráfico saliente, el agente se convierte en un canal de datos involuntario para el atacante.
Investigadores que publicaron en arXiv fueron más allá. Construyeron un exploit de extremo a extremo contra un agente de IA basado en generación aumentada por recuperación (RAG) que usaba herramientas para consultar una base de conocimiento interna con secretos sensibles de proyectos y para recuperar contenido web externo. Una página de blog maliciosa incrustó instrucciones ocultas en blanco sobre blanco que los usuarios humanos no podían ver. Cuando se pidió al agente resumir la página, este ingirió las instrucciones y las ejecutó — recuperando el secreto de su base de conocimiento, insertándolo en un parámetro de URL y enviándolo a un servidor controlado por el atacante usando la misma herramienta de búsqueda web para la que fue diseñado.
La conclusión del artículo merece la atención de cualquier responsable de seguridad: los agentes LLM actuales con uso de herramientas y RAG presentan una «vulnerabilidad fundamental» a ataques indirectos de inyección de prompts, y las funciones de seguridad integradas en los modelos no son suficientes sin capas defensivas adicionales.
Esto no es teórico. Son exploits demostrados contra el tipo exacto de arquitectura de agentes que las empresas están implementando hoy.
Tres vulnerabilidades que se combinan en una crisis
El panorama de riesgos de los agentes de IA puede entenderse a través de tres vulnerabilidades que, combinadas, generan una exposición empresarial sin precedentes.
La primera vulnerabilidad es el acceso excesivo a datos — la enorme cantidad de datos a los que los agentes pueden llegar. Los agentes de IA requieren acceso amplio a datos para funcionar eficazmente. Pero ese acceso crea una superficie de exposición enorme. Las organizaciones tienen en promedio 15.000 cuentas obsoletas pero habilitadas con más de 31.000 permisos obsoletos (Varonis 2025 State of Data Security Report), y cada agente de IA implementado añade una identidad no humana a esta superficie de ataque ya desbordada. La gestión tradicional de identidades y acceso fue diseñada para personas, no para máquinas. Suele carecer de la granularidad necesaria para aplicar el principio de mínimo privilegio a sistemas autónomos que pueden solicitar, procesar y transmitir datos a velocidades que ningún usuario humano podría igualar.
La segunda vulnerabilidad es el uso incontrolado de datos — los tipos de datos que los agentes pueden procesar y dónde terminan esos datos. La investigación muestra que el grupo más grande de empresas — el 27% — admite que más del 30% de la información enviada a herramientas de IA contiene datos privados, incluidos números de la Seguridad Social, historiales médicos, información de tarjetas de crédito y propiedad intelectual protegida. Otro 17% no tiene ninguna visibilidad sobre lo que comparten los empleados. Una vez que estos datos entran en el conjunto de entrenamiento de un modelo público, no se pueden recuperar, eliminar ni controlar. La contaminación es permanente.
La tercera vulnerabilidad es la manipulación de agentes — la explotación de agentes mediante inyección de prompts, habilidades maliciosas y ataques a la cadena de suministro. Los agentes de IA que interactúan con servicios externos, plugins y redes de agentes son vulnerables al mismo tipo de ataques indirectos de inyección de prompts que demostraron Trend Micro y los investigadores de arXiv. Una habilidad de IA comprometida puede propagarse por redes de agentes en cuestión de horas. Los agentes autónomos pueden ser manipulados para exfiltrar credenciales, acceder a archivos sensibles y generar violaciones de cumplimiento — todo a velocidad de máquina, mucho más rápido que cualquier amenaza interna humana.
Estas tres vulnerabilidades no existen de forma aislada. Se combinan. Un agente con acceso excesivo que procesa datos incontrolados y es vulnerable a la manipulación no es solo un riesgo — es una filtración a punto de ocurrir.
La IA en la sombra lo empeora todo
Sobre estas vulnerabilidades estructurales se suma el problema de la IA en la sombra. Casi la mitad de los usuarios de IA generativa depende de aplicaciones de IA personales y no autorizadas que operan completamente fuera de la visibilidad organizacional. Los empleados suben habitualmente código fuente, datos regulados y propiedad intelectual a estas herramientas para resumir, depurar y generar contenido — muchas veces sin saber que los datos pueden usarse para entrenar modelos públicos.
La magnitud es abrumadora. La organización promedio experimenta 223 violaciones de políticas de datos relacionadas con IA al mes, con el código fuente representando el 42% de los incidentes y los datos regulados el 32% (Netskope Cloud and Threat Report 2026). Los incidentes de privacidad en IA aumentaron un 56,4% año tras año (Stanford 2025 AI Index Report). Y el 98% de las empresas tiene empleados usando aplicaciones no autorizadas, con un promedio de 1.200 apps no oficiales por organización (Varonis 2025 State of Data Security Report).
Solo el 17% de las organizaciones cuenta con controles técnicos que bloquean el acceso a herramientas públicas de IA combinados con escaneo DLP. Otro 40% depende únicamente de formación y auditorías. Y el 13% no tiene ninguna política.
Bloquear la IA por completo no es la respuesta — y toda organización que lo ha intentado lo sabe. Los empleados encuentran alternativas. Usan cuentas personales. Suben datos a herramientas gratuitas desde sus teléfonos. El resultado no es menos uso de IA. Es un uso invisible de IA, que es mucho más peligroso.
La brecha de gobernanza es más grande de lo que las organizaciones admiten
A pesar de estos riesgos crecientes, la mayoría de las organizaciones sigue sin estar preparada. Solo el 12% tiene estructuras dedicadas de gobernanza de IA, mientras que el 55% no cuenta con ningún marco. Solo el 9% alcanza lo que los analistas consideran un nivel «preparado» de madurez en gobernanza de IA, a pesar de que el 23% afirma estar «altamente preparado» — una brecha de exceso de confianza de 14 puntos que en sí misma representa un riesgo.
Mientras tanto, el 86% de las organizaciones carece de visibilidad sobre los flujos de datos de IA, y el 45% cita la presión por implementar rápidamente como su mayor obstáculo para la gobernanza. Entre los líderes técnicos, esa cifra sube al 56%. El resultado es un patrón que se repite en todas las industrias: organizaciones que implementan agentes de IA en producción mientras su infraestructura de gobernanza, seguridad y cumplimiento sigue diseñada para un mundo donde solo los humanos accedían a datos sensibles.
El entorno regulatorio no espera a que las organizaciones se pongan al día. Solo en el último año se promulgaron 59 nuevas regulaciones de privacidad de datos. La Ley de IA de la UE impone multas de hasta €35 millones o el 7% de los ingresos anuales globales por infracciones de alto riesgo. Las sanciones del RGPD pueden alcanzar los €20 millones o el 4% de los ingresos. Mandatos sectoriales bajo HIPAA, SOX, GLBA y CMMC añaden obligaciones de cumplimiento adicionales que se cruzan directamente con la forma en que los agentes de IA acceden, procesan y transmiten datos sensibles.
Zero Trust para agentes de IA: el modelo de seguridad adecuado
El informe Cyber Pulse de Microsoft plantea la solución en términos que la mayoría de los profesionales de seguridad ya comprenden: Zero Trust. El informe aplica los mismos principios de Zero Trust a los agentes que las organizaciones aplican a los usuarios humanos — acceso de mínimo privilegio, verificación explícita de «quién o qué» solicita acceso y asumir el compromiso como principio de diseño.
Este marco tiene sentido de forma intuitiva. Los agentes de IA son identidades. Se autentican, solicitan acceso, ejecutan acciones. El hecho de que no sean humanos no los hace menos peligrosos — los hace más peligrosos, porque operan a velocidades y escalas para las que los controles de seguridad enfocados en humanos nunca fueron diseñados.
Aplicar Zero Trust al espacio de trabajo agentivo significa que cada agente de IA debe tratarse como una identidad distinta que requiere autenticación y autorización. El acceso debe limitarse a los permisos mínimos necesarios para cada tarea específica. Cada interacción con datos debe registrarse en una auditoría inmutable. La detección de anomalías debe operar a velocidad de máquina para igualar la velocidad de las operaciones de los agentes. Y los flujos de datos salientes deben estar gobernados para evitar la exfiltración — ya sea iniciada por un agente comprometido, un prompt manipulado o un flujo de trabajo mal configurado.
La investigación de Trend Micro refuerza este enfoque, recomendando controles de acceso robustos, filtrado avanzado de contenido y monitoreo en tiempo real para reducir fugas de datos y acciones no autorizadas. Los investigadores de arXiv llegan a la misma conclusión: las funciones de seguridad integradas en los modelos no son suficientes. Se requieren capas defensivas adicionales.
Cómo debe ser la infraestructura adecuada
Proteger el espacio de trabajo agentivo requiere infraestructura que opere a nivel de datos, no solo a nivel de red. La seguridad a nivel de red — inspeccionando el tráfico al pasar por proxies — puede detectar que un empleado visitó una aplicación de IA. Pero no puede gobernar qué datos específicos accede un agente de IA dentro de los repositorios empresariales, aplicar políticas granulares sobre cómo se usan esos datos ni proporcionar el registro de auditoría a nivel de contenido que los reguladores exigen cada vez más.
La infraestructura necesaria para cerrar la brecha de gobernanza de IA tiene varias características esenciales. Debe proporcionar una puerta de enlace segura entre los sistemas de IA y los datos empresariales, donde los principios de zero trust se apliquen en cada interacción. Debe aislar la ejecución de agentes de IA para que plugins o habilidades comprometidas no puedan acceder a recursos fuera de su alcance autorizado. Debe extender los marcos de gobernanza existentes — controles de acceso basados en roles y atributos — a todas las interacciones de IA, incluidas las iniciadas por agentes autónomos. Debe registrar cada interacción IA-datos en una auditoría inmutable con identidad de usuario, marca de tiempo, datos accedidos y el sistema de IA utilizado. Y debe detectar anomalías a velocidad de máquina, señalando comportamientos como que un agente solicite repentinamente grandes volúmenes de datos que normalmente no accede o intente transmitir datos a destinos inusuales.
La Red de Datos Privados de Kiteworks está diseñada específicamente para este reto. Su puerta de enlace de datos IA crea un puente de zero trust entre los sistemas de IA y los repositorios de datos empresariales, asegurando que los datos nunca salgan del entorno protegido. Su servidor MCP seguro aísla la ejecución de agentes de IA con autenticación OAuth 2.0, detección de anomalías y aplicación del marco de gobernanza. Y su gobernanza unificada multicanal cubre uso compartido de archivos, transferencia gestionada de archivos, correo electrónico, formularios web, APIs e interacciones de IA bajo un solo motor de políticas con una única auditoría inmutable.
Para organizaciones en industrias reguladas, la flexibilidad de implementación es clave. Kiteworks admite entornos on-premises, nube privada, híbridos y FedRAMP High — con controles de cumplimiento predefinidos para HIPAA, SOX, RGPD, CCPA, CMMC, NIST CSF, ISO 27001 y la Ley de IA de la UE.
El coste de esperar se mide en filtraciones, multas y daños permanentes
El argumento financiero para la gobernanza de datos de IA es claro. El coste promedio de una filtración de datos es de $4,88 millones. En el sector sanitario, esa cifra alcanza los $10,93 millones (IBM Cost of a Data Breach Report, 2024). Las multas de la Ley de IA de la UE por infracciones de alto riesgo pueden llegar a €35 millones o el 7% de los ingresos anuales globales. Las sanciones del RGPD alcanzan los €20 millones o el 4%. Las pérdidas por ataques a la cadena de suministro de software se estiman en $60.000 millones en toda la industria.
Pero el coste más dañino puede ser el más difícil de cuantificar: la propiedad intelectual incrustada permanentemente en conjuntos de entrenamiento públicos de IA. Una vez que los datos propietarios entran en un modelo público, no se pueden recuperar, eliminar ni controlar. El daño competitivo es irreversible.
Las organizaciones que actúan ahora para implementar gobernanza de IA a nivel de datos no solo reducen el riesgo. Obtienen una ventaja competitiva — la capacidad de adoptar IA más rápido, con mayor confianza y con la evidencia de cumplimiento documentada que reguladores, auditores y clientes exigen cada vez más.
Tres acciones que toda organización debe tomar ya
Primero, obtén visibilidad sobre lo que ya está ocurriendo. No puedes gobernar lo que no puedes ver. Implementa monitoreo que capture las interacciones IA-datos en todos los canales — no solo tráfico web, sino uso compartido de archivos, correo electrónico, APIs y flujos de trabajo de agentes. Identifica dónde fluyen los datos sensibles hacia los sistemas de IA y si esos flujos están autorizados, registrados y cumplen con las normativas. Si el 44% de las organizaciones admite carecer de supervisión adecuada, asume que la tuya podría estar entre ellas hasta que puedas demostrar lo contrario.
Segundo, extiende Zero Trust a cada agente de IA. Trata cada agente de IA como una identidad no humana que requiere la misma autenticación, autorización y controles de acceso que un usuario humano — con las salvaguardas adicionales que demandan las operaciones a velocidad de máquina. Aplica el principio de mínimo privilegio. Aísla la ejecución de los agentes. Monitorea comportamientos anómalos. Asegúrate de que ningún agente pueda acceder a datos más allá de lo que requiere su tarea específica.
Tercero, habilita la IA con gobernanza integrada — no la bloquees. Las organizaciones que intentan prohibir el uso de IA perderán esa batalla. Los empleados encontrarán alternativas y la IA en la sombra se multiplicará. El enfoque sostenible es una infraestructura que permita a los empleados usar herramientas de IA de forma productiva, garantizando que los datos sensibles nunca salgan del entorno protegido. La gobernanza que ocurre automáticamente, en segundo plano y sin obstaculizar la productividad, es el único modelo que escala.
La revolución de la IA empresarial no está por venir. Ya está aquí. La pregunta es si tu organización la gobernará — o será gobernada por sus consecuencias.
Para descubrir cómo Kiteworks puede ayudarte, agenda una demo personalizada hoy mismo.
Preguntas Frecuentes
Los chatbots de IA tradicionales responden a prompts dentro de una interfaz limitada y no toman acciones independientes. Los agentes de IA son fundamentalmente diferentes — razonan, planifican y actúan de forma autónoma en sistemas empresariales, consultando bases de datos, llamando APIs, ejecutando procesos de varios pasos y transmitiendo datos con mínima supervisión humana. Esa autonomía es lo que genera el riesgo de seguridad. Un agente no solo responde a una pregunta; opera como una identidad privilegiada no humana con acceso a datos sensibles a velocidades y escalas para las que los controles de seguridad enfocados en humanos nunca fueron diseñados. Cuando se compromete o manipula, un agente puede exfiltrar miles de registros antes de que se active cualquier alerta.
La inyección indirecta de prompts inserta instrucciones ocultas en el contenido que procesa un agente de IA — un documento, imagen o página web — que anulan la programación original del agente. Cuando el agente procesa el contenido, ejecuta las instrucciones del atacante en su lugar. Trend Micro demostró que esto provoca exfiltración de datos sin interacción del usuario. Investigadores de arXiv crearon un exploit funcional que hizo que un agente basado en RAG recuperara secretos internos y los transmitiera a un servidor del atacante. Las herramientas de seguridad tradicionales — DLP, firewalls, protección de endpoints — no pueden detener esto porque la exfiltración ocurre a través de canales legítimos y autorizados que el agente fue diseñado para usar.
IA en la sombra se refiere a empleados que usan herramientas de IA no autorizadas — cuentas personales, productos gratuitos, extensiones de navegador — sin conocimiento ni controles organizacionales. La investigación muestra que el 98% de las empresas tiene empleados usando aplicaciones no autorizadas, y la organización promedio experimenta 223 violaciones de políticas de datos relacionadas con IA al mes. La exposición es permanente: cuando los empleados suben código fuente, historiales médicos, datos financieros o propiedad intelectual a un modelo público de IA, esos datos pueden incorporarse al conjunto de entrenamiento del modelo. Luego no se pueden recuperar, eliminar ni controlar. Bloquear la IA por completo no resuelve esto — solo lleva el uso a la clandestinidad, creando una exposición invisible en lugar de gestionada.
Zero Trust para agentes de IA sigue los mismos principios aplicados a usuarios humanos, con salvaguardas adicionales para operaciones a velocidad de máquina. Cada agente se trata como una identidad distinta que requiere autenticación y autorización explícitas. El acceso se limita a los datos mínimos requeridos para cada tarea específica — no acceso amplio a repositorios. Cada interacción con datos se registra en una auditoría inmutable. La detección de anomalías se ejecuta a velocidad de máquina para identificar comportamientos inusuales como solicitudes masivas de datos o transmisiones a destinos inesperados. Y los flujos de datos salientes están gobernados para que los agentes comprometidos no puedan exfiltrar datos a través de canales autorizados. Los controles de acceso basados en roles y atributos deben extenderse explícitamente a identidades no humanas — la mayoría de los sistemas IAM no fueron diseñados pensando en agentes.
Varios marcos importantes ahora se cruzan directamente con la gobernanza de agentes de IA. La Ley de IA de la UE impone multas de hasta €35 millones o el 7% de los ingresos anuales globales por infracciones de alto riesgo y exige supervisión humana documentada y trazabilidad de datos. El RGPD requiere una base legal y salvaguardas apropiadas para cualquier procesamiento de datos personales, incluidos los realizados por agentes automatizados. HIPAA exige controles de acceso y registros de auditoría para todo sistema que gestione información de salud protegida. CMMC exige soluciones autorizadas por FedRAMP para contratistas federales que gestionan información no clasificada controlada. GLBA exige salvaguardas sobre el acceso a datos financieros. Con 59 nuevas regulaciones de privacidad de datos promulgadas solo en el último año, la gobernanza de IA ha pasado de ser una buena práctica a un requisito de cumplimiento en todas las industrias.
Recursos adicionales
- Artículo del Blog Arquitectura Zero Trust: Nunca confíes, siempre verifica
- Video Microsoft GCC High: Desventajas que impulsan a los contratistas de defensa hacia ventajas más inteligentes
- Artículo del Blog Cómo proteger datos clasificados una vez que DSPM los detecta
- Artículo del Blog Generar confianza en la IA generativa con un enfoque Zero Trust
- Video La guía definitiva para el almacenamiento seguro de datos sensibles para líderes de TI