Los agentes de IA son la mayor amenaza para la seguridad de datos que no estás gestionando
Algo cambió silenciosamente en la seguridad empresarial durante el último año, y la mayoría de las organizaciones no se dio cuenta.
Los agentes de IA —sistemas autónomos que razonan, actúan e interactúan con los recursos empresariales de forma independiente— pasaron de programas piloto a flujos de trabajo en producción. Están ajustando asignaciones de recursos en la nube, ejecutando procesos empresariales de varios pasos, consultando bases de datos e interactuando con APIs externas. Hacen todo esto con una independencia considerable, a velocidad de máquina y, a menudo, sin supervisión humana continua.
Y aquí está la parte que debería preocupar a cualquier CISO: la infraestructura de seguridad que regula estos agentes no ha avanzado al ritmo de su implementación. Ni de cerca.
El informe Cyber Pulse de Microsoft confirma que más del 80% de las empresas Fortune 500 ya implementan agentes de IA activos, muchos creados con herramientas low-code y no-code que ponen la creación de agentes en manos de usuarios de negocio, no solo desarrolladores. El mismo informe lanza una advertencia clara: estos agentes «se están expandiendo más rápido de lo que algunas empresas pueden verlos». Esa falta de visibilidad no es una simple molestia. Microsoft la califica como un riesgo empresarial que requiere gobernanza y seguridad urgente.
La pregunta ya no es si tu organización usará agentes de IA. Es si los gobernarás antes de que provoquen una brecha que no puedas contener.
5 conclusiones clave
- Los agentes de IA se expanden más rápido de lo que los equipos de seguridad pueden verlos. Más del 80% de las empresas Fortune 500 ya implementan agentes de IA activos creados con herramientas low-code y no-code. El informe Cyber Pulse de Microsoft advierte que estos agentes «se están expandiendo más rápido de lo que algunas empresas pueden verlos», creando una brecha de visibilidad que el informe califica explícitamente como un riesgo empresarial. Cuando los sistemas autónomos pueden razonar, actuar y acceder a recursos empresariales de forma independiente, la ausencia de gobernanza no es una brecha: es una puerta abierta.
- Una de cada tres organizaciones considera el acceso no supervisado a datos por agentes de IA como una amenaza crítica. Según el informe Data Security Landscape 2025 de Proofpoint, el 32% de las organizaciones identifica el acceso no supervisado a datos por parte de agentes de IA como una amenaza crítica. Estos agentes suelen operar como «superusuarios» con altos privilegios, accediendo a datos sensibles en entornos cloud e híbridos con mucha menos supervisión que cualquier empleado humano recibiría.
- Los agentes de IA pueden ser armados mediante instrucciones ocultas, sin interacción del usuario. Trend Micro demostró que los agentes de IA multimodales pueden ser manipulados mediante instrucciones ocultas incrustadas en imágenes o documentos, provocando la exfiltración de datos sensibles sin que el usuario haga clic en nada. Investigadores en arXiv construyeron un exploit de extremo a extremo donde las instrucciones ocultas de una página de blog maliciosa hicieron que un agente basado en RAG recuperara secretos de su base de conocimientos y los enviara a un servidor controlado por el atacante.
- El 44% de las organizaciones no tiene suficiente supervisión sobre el uso de IA generativa. Proofpoint detectó que el 44% de las organizaciones admite no tener suficiente supervisión sobre el uso de IA generativa, incluyendo herramientas y agentes. La Cloud Security Alliance reporta una brecha de conciencia marcada: el 52% de los ejecutivos C-suite afirma conocer las tecnologías de IA, frente a solo el 11% del personal de primera línea, quienes son quienes usan estas herramientas a diario.
- La brecha de gobernanza es una bomba de tiempo financiera. El coste promedio de una brecha de datos es ahora de $4,88 millones (IBM Cost of a Data Breach Report, 2024). Las multas de la Ley de IA de la UE pueden llegar a €35 millones o el 7% de los ingresos anuales globales. Las sanciones del RGPD alcanzan los €20 millones o el 4% de los ingresos. Con incidentes de privacidad de IA aumentando un 56,4% interanual (Stanford 2025 AI Index Report), las organizaciones sin gobernanza demostrable de IA enfrentan una exposición financiera y legal creciente.
El espacio de trabajo agentico ya está aquí — y la mayoría de las organizaciones no ve lo que ocurre dentro
El informe Data Security Landscape 2025 de Proofpoint introdujo un término que captura perfectamente el momento actual: el «espacio de trabajo agentico». Describe un entorno operativo donde herramientas de productividad impulsadas por IA y agentes autónomos gestionan datos sensibles junto a humanos. La conclusión del informe es tajante: muchas organizaciones «carecen de la visibilidad y los controles necesarios para gobernar este nuevo espacio de trabajo agentico».
Las cifras detrás de esa conclusión cuentan una historia preocupante. Casi la mitad de los encuestados identifica la dispersión de datos en entornos cloud e híbridos como una de sus principales preocupaciones. Dos de cada cinco organizaciones citan la pérdida de datos a través de herramientas públicas o empresariales de IA generativa como un riesgo primordial. Más de un tercio está preocupado por el uso de datos sensibles en el entrenamiento de modelos de IA. Y el 32% de las organizaciones ve el acceso no supervisado a datos por agentes de IA —a menudo operando como «superusuarios» con altos privilegios— como una amenaza crítica.
Lo que hace esto especialmente peligroso es la brecha entre percepción y realidad. La Cloud Security Alliance encontró que el 52% de los ejecutivos C-suite afirma conocer las tecnologías de IA, pero solo el 11% del personal dice lo mismo. Esa es una brecha de gobernanza. Las personas que toman decisiones sobre políticas de IA suelen sobrestimar la preparación de su organización, mientras que quienes realmente usan las herramientas de IA carecen del conocimiento para utilizarlas de forma segura.
Mientras tanto, el 44% de las organizaciones admite que no tiene suficiente supervisión sobre el uso de IA generativa. Eso incluye las herramientas que los empleados usan a diario y los agentes cada vez más integrados en los flujos de trabajo empresariales.
Confías en que tu organización es segura. Pero ¿puedes verificarlo?
Leer ahora
Cómo se arman los agentes de IA: inyección de prompts y exfiltración de datos
Si la falta de visibilidad fuera el único problema, sería manejable. Pero los agentes de IA no solo generan exposición pasiva. Pueden ser armados activamente —y la investigación que lo demuestra es reciente y alarmante.
La investigación de Trend Micro sobre vulnerabilidades en agentes de IA demostró que los agentes multimodales pueden ser manipulados mediante instrucciones ocultas en imágenes o documentos. El ataque no requiere ninguna interacción del usuario. Un documento o imagen con prompts ocultos puede hacer que un agente exfiltre datos sensibles —incluyendo datos personales como nombres, números de la Seguridad Social y datos de contacto, información financiera, información de salud protegida, secretos empresariales, credenciales de autenticación y documentos confidenciales cargados— sin que el usuario se entere.
La superficie de ataque se extiende a la web. Trend Micro mostró que los agentes que analizan páginas web pueden leer prompts maliciosos incrustados en sitios, que instruyen al agente a exfiltrar datos almacenados en memoria —como claves API o datos de contacto— a destinos controlados por el atacante. Si se permite el tráfico saliente, el agente se convierte en un canal de datos involuntario hacia el atacante.
Investigadores que publicaron en arXiv fueron más allá. Construyeron un exploit completo de extremo a extremo contra un agente de IA basado en generación aumentada por recuperación (RAG) que usaba herramientas para consultar una base de conocimientos interna con secretos de proyectos sensibles y para recuperar contenido web externo. Una página de blog maliciosa incrustó instrucciones ocultas en blanco sobre blanco que los usuarios humanos no podían ver. Cuando se pidió al agente que resumiera la página, este procesó las instrucciones y las ejecutó: recuperó el secreto de su base de conocimientos, lo incrustó en un parámetro de URL y lo envió a un servidor controlado por el atacante usando la misma herramienta de búsqueda web para la que fue diseñado.
La conclusión del artículo merece la atención de cualquier responsable de seguridad: los agentes LLM actuales con uso de herramientas y RAG presentan una «vulnerabilidad fundamental» ante ataques de inyección de prompts indirectos, y las funciones de seguridad integradas en el modelo no son suficientes sin capas defensivas adicionales.
Esto no es teórico. Son exploits demostrados contra el tipo exacto de arquitectura de agentes que las empresas están implementando hoy.
Tres vulnerabilidades que se combinan en una crisis
El panorama de riesgos de los agentes de IA puede entenderse a través de tres vulnerabilidades que, al combinarse, generan una exposición empresarial sin precedentes.
La primera vulnerabilidad es el acceso excesivo a datos: la enorme cantidad de datos a los que pueden llegar los agentes. Los agentes de IA requieren un acceso amplio a datos para funcionar eficazmente. Pero ese acceso genera una superficie de exposición masiva. Las organizaciones tienen en promedio 15.000 cuentas obsoletas pero habilitadas con más de 31.000 permisos obsoletos (Varonis 2025 State of Data Security Report), y cada agente de IA implementado añade una identidad no humana a esta superficie de ataque en expansión. La gestión tradicional de identidades y accesos fue diseñada para personas, no para máquinas. Suele carecer de la granularidad necesaria para aplicar el acceso de mínimo privilegio a sistemas autónomos que pueden solicitar, procesar y transmitir datos a velocidades que ningún usuario humano podría alcanzar.
La segunda vulnerabilidad es el uso incontrolado de datos: los tipos de datos que los agentes pueden procesar y dónde terminan esos datos. La investigación muestra que el grupo más grande de empresas —el 27%— admite que más del 30% de la información enviada a herramientas de IA contiene datos privados, como números de la Seguridad Social, historiales médicos, información de tarjetas de crédito y propiedad intelectual protegida. Otro 17% no tiene ninguna visibilidad sobre lo que comparten sus empleados. Una vez que estos datos entran en el set de entrenamiento de un modelo público, no pueden recuperarse, eliminarse ni controlarse. La contaminación es permanente.
La tercera vulnerabilidad es la manipulación de agentes: la explotación de agentes mediante inyección de prompts, habilidades maliciosas y ataques a la cadena de suministro. Los agentes de IA que interactúan con servicios externos, plugins y redes de agentes son vulnerables al mismo tipo de ataques de inyección de prompts indirectos que demostraron Trend Micro y los investigadores de arXiv. Una habilidad de IA comprometida puede propagarse por redes de agentes en cuestión de horas. Los agentes autónomos pueden ser manipulados para exfiltrar credenciales, acceder a archivos sensibles y generar violaciones de cumplimiento —todo a velocidad de máquina, mucho más rápido que cualquier amenaza interna humana.
Estas tres vulnerabilidades no existen por separado. Se potencian entre sí. Un agente con acceso excesivo, que procesa datos incontrolados y es vulnerable a la manipulación, no es solo un riesgo: es una brecha esperando a ocurrir.
La IA en la sombra lo empeora todo
Sobre estas vulnerabilidades estructurales se suma el problema de la IA en la sombra. Casi la mitad de los usuarios de IA generativa depende de aplicaciones personales y no autorizadas de IA que operan completamente fuera de la visibilidad organizacional. Los empleados suben habitualmente código fuente, datos regulados y propiedad intelectual a estas herramientas para resumir, depurar y generar contenido —a menudo sin saber que los datos pueden usarse para entrenar modelos públicos.
La magnitud es impactante. La organización promedio experimenta 223 violaciones de políticas de datos relacionadas con IA al mes, con el código fuente representando el 42% de los incidentes y los datos regulados el 32% (Netskope Cloud and Threat Report 2026). Los incidentes de privacidad de IA aumentaron un 56,4% interanual (Stanford 2025 AI Index Report). Y el 98% de las empresas tiene empleados usando aplicaciones no autorizadas, con un promedio de 1.200 apps no oficiales por organización (Varonis 2025 State of Data Security Report).
Solo el 17% de las organizaciones cuenta con controles técnicos que bloquean el acceso a herramientas públicas de IA combinados con escaneo DLP. Otro 40% depende solo de la formación y auditorías. Y el 13% no tiene ninguna política.
Bloquear la IA por completo no es la solución —y cualquier organización que lo haya intentado lo sabe. Los empleados encuentran alternativas. Usan cuentas personales. Suben datos a herramientas gratuitas desde sus teléfonos. El resultado no es menos uso de IA. Es un uso invisible de IA, que es mucho más peligroso.
La brecha de gobernanza es más amplia de lo que las organizaciones admiten
A pesar de estos riesgos crecientes, la mayoría de las organizaciones sigue sin estar preparada. Solo el 12% tiene estructuras dedicadas de gobernanza de IA, mientras que el 55% carece de cualquier marco. Solo el 9% alcanza lo que los analistas consideran un nivel «preparado» de madurez en gobernanza de IA, aunque el 23% afirma estar «altamente preparado» —una brecha de sobreconfianza de 14 puntos que en sí misma representa un riesgo.
Mientras tanto, el 86% de las organizaciones carece de visibilidad sobre los flujos de datos de IA, y el 45% cita la presión por implementar rápido como su mayor obstáculo para la gobernanza. Entre los líderes técnicos, esa cifra sube al 56%. El resultado es un patrón que se repite en todas las industrias: organizaciones implementando agentes de IA en producción mientras su infraestructura de gobernanza, seguridad y cumplimiento sigue diseñada para un mundo donde solo los humanos accedían a datos sensibles.
El entorno regulatorio no espera a que las organizaciones se pongan al día. Solo en el último año se promulgaron 59 nuevas regulaciones de privacidad de datos. La Ley de IA de la UE impone multas de hasta €35 millones o el 7% de los ingresos anuales globales por infracciones de alto riesgo. Las sanciones del RGPD pueden alcanzar los €20 millones o el 4% de los ingresos. Mandatos sectoriales bajo HIPAA, SOX, GLBA y CMMC añaden más obligaciones de cumplimiento que se relacionan directamente con cómo los agentes de IA acceden, procesan y transmiten datos sensibles.
Zero Trust para agentes de IA: el modelo de seguridad adecuado
El informe Cyber Pulse de Microsoft enmarca la solución en términos que la mayoría de los profesionales de seguridad ya comprenden: Zero Trust. El informe aplica los mismos principios de Zero Trust a los agentes que las organizaciones aplican a los usuarios humanos: acceso de mínimo privilegio, verificación explícita de «quién o qué» solicita acceso y asumir el compromiso como principio de diseño.
Este marco tiene sentido de forma intuitiva. Los agentes de IA son identidades. Se autentican, solicitan acceso, realizan acciones. El hecho de que no sean humanos no los hace menos peligrosos —los hace más peligrosos, porque operan a velocidades y escalas para las que los controles de seguridad centrados en humanos nunca fueron diseñados.
Aplicar Zero Trust al espacio de trabajo agentico significa que cada agente de IA debe ser tratado como una identidad distinta que requiere autenticación y autorización. El acceso debe limitarse a los permisos mínimos necesarios para cada tarea específica. Cada interacción con datos debe registrarse en una auditoría inmutable. La detección de anomalías debe operar a velocidad de máquina para igualar la velocidad de las operaciones de los agentes. Y los flujos de datos salientes deben estar gobernados para evitar exfiltraciones —ya sea iniciadas por un agente comprometido, un prompt manipulado o un flujo de trabajo mal configurado.
La investigación de Trend Micro refuerza este enfoque, recomendando controles de acceso robustos, filtrado avanzado de contenido y monitoreo en tiempo real para reducir fugas de datos y acciones no autorizadas. Los investigadores de arXiv llegan a la misma conclusión: las funciones de seguridad integradas en el modelo no son suficientes. Se requieren capas defensivas adicionales.
Así debe ser la infraestructura adecuada
Proteger el espacio de trabajo agentico requiere una infraestructura que opere a nivel de datos, no solo a nivel de red. La seguridad a nivel de red —inspeccionando el tráfico al pasar por proxies— puede detectar que un empleado visitó una aplicación de IA. Pero no puede gobernar qué datos específicos accede un agente de IA en los repositorios empresariales, aplicar políticas granulares sobre cómo se usan esos datos ni proporcionar el registro de auditoría a nivel de contenido que los reguladores exigen cada vez más.
La infraestructura necesaria para cerrar la brecha de gobernanza de IA tiene varias características esenciales. Debe ofrecer una puerta de enlace segura entre los sistemas de IA y los datos empresariales donde los principios de zero trust se apliquen en cada interacción. Debe aislar la ejecución de agentes de IA para que plugins o habilidades comprometidas no puedan acceder a recursos fuera de su alcance autorizado. Debe ampliar los marcos de gobernanza existentes —controles de acceso basados en roles y atributos— a todas las interacciones de IA, incluidas las iniciadas por agentes autónomos. Debe registrar cada interacción IA-datos en una auditoría inmutable con identidad de usuario, marca de tiempo, datos accedidos y el sistema de IA utilizado. Y debe detectar anomalías a velocidad de máquina, señalando comportamientos como un agente solicitando de repente grandes volúmenes de datos que normalmente no accede o intentando transmitir datos a destinos inusuales.
La Red de Datos Privados de Kiteworks está diseñada específicamente para este reto. Su puerta de enlace de datos IA crea un puente de zero trust entre los sistemas de IA y los repositorios de datos empresariales, asegurando que los datos nunca salgan del entorno protegido. Su servidor MCP seguro aísla la ejecución de agentes de IA con autenticación OAuth 2.0, detección de anomalías y aplicación del marco de gobernanza. Y su gobernanza unificada multicanal cubre uso compartido de archivos, transferencia de archivos gestionada, correo electrónico, formularios web, APIs e interacciones de IA bajo un único motor de políticas y una sola auditoría inmutable.
Para organizaciones en sectores regulados, la flexibilidad de implementación es clave. Kiteworks admite entornos on-premises, nube privada, híbridos y FedRAMP High, con controles de cumplimiento preconfigurados para HIPAA, SOX, RGPD, CCPA, CMMC, NIST CSF, ISO 27001 y la Ley de IA de la UE.
El coste de esperar se mide en brechas, multas y daños permanentes
El argumento financiero para la gobernanza de datos de IA es claro. El coste promedio de una brecha de datos es de $4,88 millones. En el sector salud, esa cifra llega a $10,93 millones (IBM Cost of a Data Breach Report, 2024). Las multas de la Ley de IA de la UE por infracciones de alto riesgo pueden alcanzar los €35 millones o el 7% de los ingresos anuales globales. Las sanciones del RGPD llegan a €20 millones o el 4%. Las pérdidas por ataques a la cadena de suministro de software se estiman en $60 mil millones en toda la industria.
Pero el coste más dañino puede ser el más difícil de cuantificar: la propiedad intelectual incrustada permanentemente en los sets de entrenamiento de IA públicos. Una vez que los datos propietarios entran en un modelo público, no pueden recuperarse, eliminarse ni controlarse. El daño competitivo es irreversible.
Las organizaciones que actúan ahora para implementar gobernanza de IA a nivel de datos no solo reducen el riesgo. Obtienen una ventaja competitiva: la capacidad de adoptar IA más rápido, con mayor confianza y con la evidencia de cumplimiento documentada que reguladores, auditores y clientes exigen cada vez más.
Tres acciones que toda organización debe tomar ya
Primero, obtén visibilidad sobre lo que ya está ocurriendo. No puedes gobernar lo que no puedes ver. Implementa monitoreo que capture las interacciones IA-datos en todos los canales —no solo tráfico web, sino uso compartido de archivos, correo electrónico, APIs y flujos de trabajo de agentes. Identifica hacia dónde fluye la información sensible a los sistemas de IA y si esos flujos están autorizados, registrados y cumplen con las normativas. Si el 44% de las organizaciones admite que carece de supervisión adecuada, asume que la tuya podría estar entre ellas hasta que puedas demostrar lo contrario.
Segundo, extiende Zero Trust a cada agente de IA. Trata a cada agente de IA como una identidad no humana que requiere la misma autenticación, autorización y controles de acceso que un usuario humano —con las salvaguardas adicionales que exigen las operaciones a velocidad de máquina. Aplica el acceso de mínimo privilegio. Aísla la ejecución de agentes. Monitorea comportamientos anómalos. Asegúrate de que ningún agente pueda acceder a datos más allá de lo que requiere su tarea específica.
Tercero, habilita la IA con gobernanza integrada —no la bloquees. Las organizaciones que intentan prohibir el uso de IA perderán esa batalla. Los empleados encontrarán alternativas y la IA en la sombra se multiplicará. El enfoque sostenible es una infraestructura que permita a los empleados usar herramientas de IA de forma productiva mientras garantiza que los datos sensibles nunca salgan del entorno protegido. La gobernanza que ocurre automáticamente, en segundo plano y sin obstaculizar la productividad, es el único modelo que escala.
La revolución de la IA empresarial no está por venir. Ya está aquí. La pregunta es si tu organización la gobernará —o será gobernada por sus consecuencias.
Para descubrir cómo Kiteworks puede ayudarte, agenda una demo personalizada hoy.
Preguntas frecuentes
Los chatbots de IA tradicionales responden a prompts dentro de una interfaz limitada y no toman acciones independientes. Los agentes de IA son fundamentalmente diferentes: razonan, planifican y actúan de forma autónoma en sistemas empresariales, consultando bases de datos, llamando a APIs, ejecutando procesos de varios pasos y transmitiendo datos con mínima supervisión humana. Esa autonomía es lo que genera el riesgo de seguridad. Un agente no solo responde una pregunta; opera como una identidad no humana privilegiada con acceso a datos sensibles a velocidades y escalas para las que los controles de seguridad centrados en humanos nunca fueron diseñados. Cuando se compromete o manipula, un agente puede exfiltrar miles de registros antes de que se active cualquier alerta.
La inyección de prompts indirecta incrusta instrucciones ocultas en el contenido que procesa un agente de IA —un documento, imagen o página web— que anulan la programación original del agente. Cuando el agente procesa el contenido, ejecuta las instrucciones del atacante en su lugar. Trend Micro demostró que esto provoca exfiltración de datos sin interacción del usuario. Investigadores de arXiv crearon un exploit funcional que hizo que un agente basado en RAG recuperara secretos internos y los transmitiera a un servidor del atacante. Las herramientas de seguridad tradicionales —DLP, firewalls, protección de endpoints— no pueden detener esto porque la exfiltración ocurre a través de canales legítimos y autorizados que el agente está diseñado para usar.
IA en la sombra se refiere a empleados que usan herramientas de IA no autorizadas —cuentas personales, productos gratuitos, extensiones de navegador— sin conocimiento ni controles organizacionales. La investigación muestra que el 98% de las empresas tiene empleados usando aplicaciones no autorizadas, y la organización promedio experimenta 223 violaciones de políticas de datos relacionadas con IA al mes. La exposición es permanente: cuando los empleados suben código fuente, historiales médicos, datos financieros o propiedad intelectual a un modelo público de IA, esos datos pueden incorporarse al set de entrenamiento del modelo. Después, no pueden recuperarse, eliminarse ni controlarse. Bloquear la IA por completo no resuelve esto: solo lleva el uso a la clandestinidad, creando una exposición invisible en vez de gestionada.
Zero Trust para agentes de IA sigue los mismos principios que se aplican a usuarios humanos, con salvaguardas adicionales para operaciones a velocidad de máquina. Cada agente se trata como una identidad distinta que requiere autenticación y autorización explícitas. El acceso se limita a los datos mínimos necesarios para cada tarea específica —no acceso amplio a repositorios. Cada interacción con datos se registra en una auditoría inmutable. La detección de anomalías funciona a velocidad de máquina para señalar comportamientos inusuales como solicitudes masivas de datos o transmisiones a destinos inesperados. Y los flujos de datos salientes se gobiernan para que los agentes comprometidos no puedan exfiltrar datos a través de canales autorizados. Los controles de acceso basados en roles y atributos deben extenderse explícitamente a identidades no humanas —la mayoría de los sistemas IAM no fueron diseñados pensando en agentes.
Varios marcos importantes ahora se relacionan directamente con la gobernanza de agentes de IA. La Ley de IA de la UE impone multas de hasta €35 millones o el 7% de los ingresos anuales globales por infracciones de alto riesgo y exige supervisión humana documentada y trazabilidad de datos. El RGPD exige base legal y salvaguardas adecuadas para cualquier procesamiento de datos personales, incluidos los realizados por agentes automatizados. HIPAA exige controles de acceso y registros de auditoría para todo sistema que gestione información de salud protegida. CMMC requiere soluciones autorizadas por FedRAMP para contratistas federales que gestionan información no clasificada controlada. GLBA exige salvaguardas sobre el acceso a datos financieros. Con 59 nuevas regulaciones de privacidad de datos promulgadas solo en el último año, la gobernanza de IA ha pasado de ser una buena práctica a un requisito de cumplimiento en todos los sectores.
Recursos adicionales
- Artículo del Blog Arquitectura Zero Trust: Nunca confíes, siempre verifica
- Video Microsoft GCC High: Desventajas que impulsan a los contratistas de defensa hacia ventajas más inteligentes
- Artículo del Blog Cómo proteger datos clasificados una vez que DSPM los identifica
- Artículo del Blog Cómo generar confianza en la IA generativa con un enfoque Zero Trust
- Video Guía definitiva para el almacenamiento seguro de datos sensibles para líderes de TI