
Brecha en la Gobernanza de IA: El 91% de las Pequeñas Empresas Juegan a la Ruleta Rusa con la Seguridad de Datos en 2025
Imagina esto: Vas conduciendo un Ferrari a 320 km/h por la autopista… con los ojos vendados. Eso es básicamente lo que el 91% de las pequeñas empresas están haciendo ahora mismo con sus sistemas de IA. Sin monitoreo, sin visibilidad, sin idea de si su IA está filtrando datos confidenciales o inventando información de clientes sin control.
La Encuesta de Gobernanza de IA 2025 de Pacific AI acaba de salir y, sinceramente, los resultados son más aterradores que una novela de Stephen King sobre chatbots descontrolados. Mientras todos persiguen la fiebre del oro de la IA, prometiendo a los accionistas que son «AI-first» y que están «aprovechando el machine learning más avanzado», la realidad es más bien un circo de tres pistas donde los payasos llevan la seguridad IT.
Confías en que tu organización es segura. Pero ¿puedes comprobarlo?
Y aquí viene lo fuerte: los incidentes de IA han subido un 56,4% año tras año según el AI Index de Stanford, con 233 incidentes de privacidad solo el año pasado. Los ataques a la cadena de suministro de software podrían costar a las organizaciones 60 mil millones de dólares en 2025. Y aun así, la mayoría de las empresas tratan la gobernanza de IA como esa suscripción al gimnasio que compraron en enero: buenas intenciones, cero seguimiento.
Estamos presenciando la tormenta perfecta: la presión por innovar choca de frente con la incapacidad total para gestionar los riesgos de IA de forma responsable. No es solo un problema técnico; es una amenaza existencial para la seguridad de los datos, el cumplimiento normativo y la privacidad de los clientes. Vamos a sumergirnos en este desastre y ver hasta qué punto la situación es crítica.
Pesadilla de Seguridad: Cuando «Muévete Rápido y Rompe Cosas» Rompe Todo
Punto Ciego de Monitoreo Que Puede Hundir Tu Empresa
Empecemos con la estadística más impactante de la encuesta de Pacific AI: solo el 48% de las organizaciones monitorean sus sistemas de IA en producción para precisión, desviaciones o uso indebido. Pero espera, que empeora. En pequeñas empresas, ese número cae a un catastrófico 9%. Nueve. Por ciento.
Piénsalo un segundo. Más del 90% de las pequeñas empresas no tienen ni idea de lo que hacen sus sistemas de IA una vez implementados. Es como lanzar un satélite y tirar el control remoto al instante. Tu IA podría estar sufriendo desviaciones de modelo, generando resultados sesgados o, peor aún, filtrando datos confidenciales de clientes, y tú ni te enteras.
Los líderes técnicos lo hacen un poco mejor, con un 55% de monitoreo, pero eso sigue significando que casi la mitad de quienes deberían saber más están a ciegas. No hablamos de una función opcional. Sin monitoreo, no puedes detectar ataques de inyección de prompts, donde actores maliciosos manipulan tu IA para revelar datos de entrenamiento o actuar de forma dañina. No puedes ver cuándo tu modelo de lenguaje empieza a inventar números de seguridad social de clientes en las respuestas. Es como operar un reactor nuclear sin termómetro.
Fantasía de Respuesta a Incidentes
Aquí es donde la cosa se vuelve cómica, si no fuera tan alarmante. La encuesta muestra que el 54% de las organizaciones afirma tener manuales de respuesta a incidentes para IA. Suena responsable, ¿verdad? Error. Estos «manuales» son básicamente marcos IT donde alguien reemplazó «servidor» por «modelo de IA».
La mayoría de las organizaciones no tiene protocolos para fallos específicos de IA. ¿Qué pasa si alguien descubre una vulnerabilidad de inyección de prompts? ¿Cómo reaccionas si tu IA empieza a generar datos sintéticos que violan leyes de privacidad? ¿Cuál es tu plan si el sesgo en los resultados de tu modelo provoca una demanda por discriminación?
Las pequeñas empresas son especialmente vulnerables: solo el 36% tiene algún plan de respuesta a incidentes. Eso significa que cuando (no si) algo salga mal, dos tercios de las pequeñas empresas estarán corriendo como ardillas hiperactivas sin saber a quién llamar ni qué hacer.
Puntos Clave
-
Las Pequeñas Empresas Están Peligrosamente Desprevenidas Frente a los Riesgos de IA
Solo el 9% de las pequeñas empresas monitorea sus sistemas de IA para precisión, desviaciones o uso indebido, frente al 48% general. Esta enorme brecha de gobernanza deja a las pymes expuestas a filtraciones de datos, incumplimientos y daños reputacionales que pueden ser fatales para su negocio.
-
Políticas de IA Sin Implementación No Valen Nada
Aunque el 75% de las organizaciones tiene políticas de uso de IA, solo el 59% cuenta con roles dedicados de gobernanza y apenas el 54% mantiene manuales de respuesta a incidentes. Esta desconexión entre política y práctica genera una falsa sensación de seguridad y deja a las organizaciones expuestas a riesgos reales de IA.
-
Los Empleados Están Filtrando Datos Privados en Herramientas Públicas de IA
El 26% de las organizaciones informa que más del 30% de los datos que los empleados introducen en herramientas públicas de IA son información privada o confidencial. Con solo el 17% contando con controles técnicos para bloquear el acceso no autorizado a IA, las empresas básicamente confían en la buena fe para proteger sus datos más sensibles.
-
La Presión por Salir al Mercado Está Saboteando la Seguridad en IA
El 45% de las organizaciones (56% entre líderes técnicos) señala la presión por implementar como el mayor obstáculo para la gobernanza de IA. Esta mentalidad de «muévete rápido y rompe la privacidad» es una bomba de tiempo, especialmente con incidentes de IA aumentando un 56,4% año tras año.
-
La Brecha de Conocimiento Normativo Llega a Niveles Críticos
Solo el 30% de los encuestados conoce el Marco de Gestión de Riesgos de IA de NIST y apenas el 14% de las pequeñas empresas entiende los principales estándares de IA. Con la Ley de IA de la UE entrando en vigor en septiembre de 2025 y el 75% de la población mundial cubierta por leyes de privacidad, esta ignorancia puede traducirse en multas devastadoras y consecuencias legales.
Epidemia de Shadow AI: El Tema Tabú
¿Recuerdas el Shadow IT? Ese problema de cuando los empleados usaban Dropbox en vez del servidor corporativo. Pues ahora llega su primo vitaminado: Shadow AI. Con solo el 59% de las organizaciones contando con roles dedicados de gobernanza de IA (bajando al 36% en pequeñas empresas), el terreno es ideal para el uso descontrolado de IA.
Esto es lo que pasa ahora mismo en tu empresa: Karen de contabilidad sube estados financieros a ChatGPT para «ayudar con el análisis». Bob de RRHH mete datos de empleados en un filtro de CVs con IA que encontró online. ¿El equipo de marketing? Usa todas las herramientas de IA posibles para generar contenido, incluyendo tus directrices de marca y datos de clientes.
La Encuesta de Seguridad y Cumplimiento de Datos de IA de Kiteworks lo deja claro: solo el 17% de las organizaciones tiene controles técnicos que realmente bloquean el acceso a herramientas públicas de IA junto con escaneo DLP. Eso significa que el 83% básicamente confía en la buena voluntad de sus empleados, esperando que no hagan nada catastrófico con los datos de la empresa.
Pero aquí viene lo más grave: el 26% de las organizaciones reporta que más del 30% de los datos que los empleados introducen en herramientas públicas de IA son datos privados. Piénsalo. Más de una cuarta parte de las empresas admite que casi un tercio de lo que entra en estos sistemas de IA es información sensible que nunca debería estar ahí.
Teatro de Cumplimiento: Por Qué Tu «Política de IA» No Vale Ni el PDF Donde Está Escrita
Desierto de Conocimiento Normativo
Si la ignorancia diera felicidad, la mayoría de las empresas estaría en éxtasis. Los resultados de la encuesta sobre conocimiento normativo parecen el boletín de un colegio en quiebra:
- Familiaridad con el Marco de Gestión de Riesgos de IA de NIST: 30% general
- Leyes de Privacidad del Consumidor (CCPA, CPA, etc.): 29% de conocimiento
- ISO 42001/23894: 21% entre líderes técnicos
- Leyes sobre deepfakes: 17% de conocimiento general
No son normativas desconocidas. Son los marcos que determinan si te multan hasta la ruina o puedes seguir operando. La Ley de IA de la UE entra en vigor en septiembre de 2025, y la mayoría de las empresas está tan preparada como un pingüino en el Sahara.
La brecha de conocimiento es especialmente alarmante si consideras que el 75% de la población mundial estará cubierta por leyes de privacidad en 2025. Sin embargo, las pequeñas empresas solo reportan un 14% de conocimiento sobre los principales estándares. Es como intentar cruzar un campo minado con los ojos vendados y auriculares con cancelación de ruido.
El Abismo Entre la Política y la Práctica
Aquí es donde las organizaciones se lucen en el teatro. Un impresionante 75% de los encuestados presume de tener políticas de uso de IA. ¡Bravo! ¡Un documento más! Seguro que hasta lo encuadernaron bonito con portada profesional.
Pero veamos qué pasa más allá del papeleo. Solo el 59% tiene roles dedicados para implementar esas políticas. Apenas el 54% mantiene manuales de respuesta a incidentes. Y solo el 45% realiza evaluaciones de riesgos para proyectos de IA. Esto no es gobernanza; es cosplay de gobernanza.
La desconexión es aún más clara al analizar los números. Mientras las organizaciones redactan declaraciones éticas y políticas de uso aceptable de IA, no las respaldan con cambios operativos reales. Es como tener un plan de evacuación de incendios detallado pero sin extintores, señales de salida ni simulacros.
En pequeñas empresas, la situación es aún peor. Solo el 55% tiene políticas, y viendo sus tasas de implementación, esas políticas podrían estar escritas con tinta invisible. Cada vez que usan datos de clientes para entrenar o inferir con IA, crean riesgos de exposición de privacidad sin controles reales.
Espiral de Muerte para Pequeñas Empresas
Las pymes están atrapadas en lo que solo puede llamarse una espiral de muerte de cumplimiento. Los números muestran organizaciones totalmente desprevenidas para la tormenta regulatoria que se avecina:
Solo el 29% de las pequeñas empresas monitorea sus sistemas de IA. Apenas el 36% tiene roles de gobernanza. Un pobre 41% ofrece algún tipo de formación anual en IA. Y solo el 51% tiene un proceso formal para mantenerse al día con las regulaciones de IA y privacidad.
No son solo estadísticas: son señales de alarma de desastre inminente. Las pequeñas empresas suelen ser proveedoras de terceros para grandes organizaciones, así que sus fallos de cumplimiento se convierten en vulnerabilidades de cadena de suministro para sus socios. Cuando caiga el martillo regulatorio, no solo aplastará a las pymes; provocará un efecto dominó en todo su ecosistema de negocio.
Privacidad: El Salvaje Oeste de los Datos Donde Todos Son Vaqueros
Bomba de Tiempo en los Datos de Entrenamiento
Uno de los aspectos más ignorados de la gobernanza de IA es la pregunta que nadie quiere hacer: ¿Qué datos están entrenando realmente tus modelos de IA? La encuesta revela que las organizaciones están muy poco preparadas para afrontar temas emergentes de cumplimiento como el manejo de datos sintéticos, riesgos de aprendizaje federado y restricciones al flujo transfronterizo de datos.
Piénsalo. Cada vez que tu modelo de IA se entrena con datos de clientes, puedes estar creando una pesadilla de privacidad. Esos datos no desaparecen: se convierten en parte de los pesos y sesgos del modelo. Si entrenas con datos de clientes europeos y despliegas el modelo en EE. UU., enhorabuena, acabas de crear una transferencia internacional de datos que podría violar el GDPR.
La encuesta muestra que solo el 45% de las organizaciones realiza evaluaciones de riesgos para proyectos de IA, y entre líderes técnicos esto sube apenas al 47%. Más de la mitad de los proyectos de IA se lanzan sin que nadie se pregunte cosas básicas como «¿Deberíamos usar estos datos?» o «¿Qué pasa si el modelo memoriza información personal identificable?»
La ausencia de evaluaciones de riesgos previas a la implementación es especialmente grave considerando regulaciones como el Artículo 35 del GDPR, que exige Evaluaciones de Impacto de Protección de Datos. Las empresas están apostando su cumplimiento a la suerte en vez de a procesos sólidos.
Confianza a Ciegas en Terceros
Si creías que tu propia gobernanza de IA era mala, espera a oír sobre los riesgos de terceros. Según la investigación de Kiteworks, casi el 60% de las organizaciones carece de controles y seguimiento integral de gobernanza para sus intercambios de datos con terceros. Esto crea brechas enormes que los atacantes explotan cada vez más.
El Informe de Investigaciones de Filtraciones de Datos 2025 de Verizon confirma que esto no es teórico: las filtraciones de terceros se han duplicado hasta el 30% de todos los incidentes, siendo las soluciones tradicionales de uso compartido de archivos especialmente vulnerables. Cuando los sistemas de IA de tus proveedores acceden a tus datos, sus fallos de seguridad se convierten en tus desastres de privacidad.
Esto es aún más crítico en la era de la IA porque el intercambio de datos se ha vuelto exponencialmente más complejo. Tu agencia de marketing usa IA para procesar datos de clientes. Tu proveedor de nube implementa analítica impulsada por IA. Tu plataforma de atención al cliente despliega chatbots entrenados con tus tickets de soporte. Cada punto de contacto es una posible filtración de privacidad esperando ocurrir.
Brecha de Privacidad IA-Humano
Aquí es donde la teoría choca con la realidad: el comportamiento humano frente a la política corporativa. La encuesta de Kiteworks revela un dato impactante: el 26% de las organizaciones informa que más del 30% de los datos que los empleados introducen en herramientas públicas de IA son datos privados. No es un error. Más de una cuarta parte de las empresas admite que casi un tercio de lo que entra en ChatGPT, Claude u otros sistemas públicos de IA es información sensible.
Pero aún hay más. Recuerda que solo el 17% de las organizaciones tiene controles técnicos que bloquean el acceso a herramientas públicas de IA con escaneo DLP. Eso significa que la gran mayoría depende de formación, políticas y buena suerte para evitar filtraciones de datos. Es como intentar evitar que el agua baje por una pendiente: sin barreras técnicas, los empleados encontrarán la forma de usar IA y le darán cualquier dato que les facilite el trabajo.
El factor humano crea la tormenta perfecta para violaciones de privacidad. Los empleados quieren ser productivos. Las herramientas de IA los hacen más productivos. Los datos de la empresa hacen que las IA sean más útiles. Sin barreras técnicas, esta ecuación siempre termina con datos sensibles en sistemas públicos de IA.
Velocidad vs. Seguridad: Por Qué «Lánzalo Ya y Asegúralo Después» Es Suicidio Empresarial
Ambiente de Olla a Presión
La encuesta identifica el elefante en la sala que todos conocen pero nadie quiere admitir: el 45% de las organizaciones cita la presión por implementar rápido como el mayor obstáculo para la gobernanza de IA. Entre líderes técnicos, esto sube al 56%. Más de la mitad de los responsables de IA básicamente tienen que elegir entre hacer las cosas bien o hacerlas rápido.
Esta mentalidad de «muévete rápido y rompe la privacidad» no solo es arriesgada: puede ser catastrófica. Cuando Stanford reporta un aumento del 56,4% año tras año en incidentes de privacidad de IA y los ataques a la cadena de suministro de software podrían costar 60 mil millones de dólares en 2025, el precio de la velocidad se vuelve insostenible.
La presión no surge de la nada. Los consejos directivos quieren iniciativas de IA. Los inversores quieren historias de IA. Los competidores anuncian funciones de IA. El mercado premia la rapidez, al menos hasta que ocurre la primera gran filtración o multa. Entonces, de repente, todos quieren saber por qué no había gobernanza adecuada.
Realidad Presupuestaria
Para las pequeñas empresas, el reto se agrava por los recursos. La encuesta muestra que el 40% cita las limitaciones presupuestarias como una barrera importante para implementar gobernanza de IA. Esto crea un círculo vicioso: no pueden costear una gobernanza adecuada, pero tampoco pueden permitirse las consecuencias de no tenerla.
Es el típico caso de economía falsa. Las organizaciones ahorran céntimos en gobernanza mientras arriesgan miles en multas, costes de filtraciones y daños reputacionales. Cuando las multas del GDPR pueden alcanzar el 4% de los ingresos globales anuales y las demandas colectivas por sesgo o violaciones de privacidad en IA son cada vez más comunes, las cuentas no salen.
El verdadero coste no es solo monetario. Sin prácticas responsables de IA integradas en todo el ciclo de desarrollo, los desarrolladores y, por tanto, las organizaciones para las que trabajan, elevan los riesgos legales, financieros y reputacionales, como advierte David Talby, CEO de Pacific AI. Una vez que se pierde la confianza, recuperarla cuesta mucho más que prevenir la filtración desde el principio.
Zona de Peligro de Doble Rol
Quizá el hallazgo más preocupante es que el 35% de las organizaciones son tanto desarrolladoras como implementadoras de IA. Este doble rol debería significar el doble de experiencia y controles. En la práctica, suele significar el doble de riesgo con la mitad de gobernanza.
Estas organizaciones enfrentan retos únicos. Deben asegurar la integridad de los datos de entrenamiento, la explicabilidad del modelo y la auditoría de resultados, además de gestionar los riesgos de implementación. Sin controles maduros, básicamente están gestionando dos operaciones de alto riesgo a la vez sin las medidas de seguridad adecuadas. Es como hacer malabares con antorchas encendidas mientras montas un monociclo: impresionante si sale bien, catastrófico si no.
Hoja de Ruta: Del Caos al Control
Imprescindibles Técnicos
El camino a seguir no es un misterio: solo requiere compromiso y recursos. Las organizaciones deben empezar por lo básico que muchos están ignorando:
Primero, la observabilidad automatizada de modelos ya no es opcional. Necesitas monitoreo en tiempo real capaz de detectar desviaciones, patrones inusuales y posibles problemas de seguridad. Esto debe estar integrado en tu pipeline de implementación, no añadido después.
Segundo, desarrolla manuales de respuesta a incidentes específicos para IA que realmente aborden los modos de fallo de IA. Los manuales IT genéricos no sirven cuando se trata de inyecciones de prompts, envenenamiento de modelos o filtraciones de datos sintéticos. Necesitas protocolos que comprendan los riesgos únicos de los sistemas de IA.
Tercero, implementa arquitecturas de intercambio de datos de confianza cero. Como destaca Kiteworks, necesitas controles técnicos que apliquen la seguridad sin importar el canal de comunicación o el endpoint. El sistema de honor no funciona cuando el 26% de las empresas reporta una exposición masiva de datos privados en herramientas públicas de IA.
Elementos Esenciales de Gobernanza
Incluso las pequeñas empresas necesitan roles dedicados de gobernanza de IA. No significa necesariamente contratar a un Chief AI Ethics Officer (aunque no sería mala idea). Significa que alguien debe asumir la gobernanza de IA, aunque sea como parte de sus funciones actuales. Sin una persona responsable, la gobernanza se diluye y acaba siendo responsabilidad de nadie.
La integración en los flujos CI/CD es clave para evitar la trampa de velocidad versus seguridad. Cuando los controles de gobernanza se automatizan y forman parte del pipeline de desarrollo, dejan de ser obstáculos y se convierten en facilitadores. Así puedes satisfacer tanto la demanda de velocidad del consejo como la de responsabilidad de los reguladores.
Las evaluaciones de riesgos específicas de IA deben ser tan rutinarias como las revisiones de código. Antes de lanzar cualquier proyecto de IA, alguien debe plantear preguntas difíciles sobre uso de datos, posibles sesgos, implicaciones de privacidad y requisitos de cumplimiento. El 55% de las organizaciones que omite este paso está jugando a la ruleta rusa con su futuro corporativo.
Base de Cumplimiento
Los resultados de la encuesta sobre brechas de conocimiento normativo apuntan a una necesidad urgente de formación. Las organizaciones deben invertir en capacitación obligatoria sobre marcos como el de NIST AI RMF, la Ley de IA de la UE y las leyes estatales de privacidad relevantes. No es desarrollo profesional opcional: es formación de supervivencia para la era de la IA.
Las evaluaciones de riesgos previas a la implementación deben convertirse en práctica estándar, no solo por cumplimiento sino por continuidad de negocio. Con regulaciones evolucionando rápido y una mayor vigilancia, el coste de no cumplir se dispara. Las organizaciones deben pasar de un cumplimiento reactivo a una gestión proactiva de riesgos.
Evoluciona o Te Devoran
La Encuesta de Gobernanza de IA 2025 muestra un sector en una encrucijada. La brecha de gobernanza no solo se amplía: se convierte en un abismo que amenaza con tragarse a las organizaciones desprevenidas. Las pequeñas empresas son especialmente vulnerables, pero incluso las grandes luchan por equilibrar innovación y responsabilidad.
El hallazgo más alarmante no es una estadística aislada, sino el patrón que revelan. Las organizaciones implementan sistemas de IA potentes sin monitoreo, gobernanza ni controles adecuados. Crean políticas sin implementación. Corren al mercado sin pensar en las consecuencias. Es la receta para un desastre a escala industrial.
La verdad es dura: 2025 es el año decisivo para la gobernanza de IA. Con la Ley de IA de la UE en vigor, leyes de privacidad expandiéndose globalmente y los incidentes de IA disparados, las organizaciones ya no pueden tratar la gobernanza como algo secundario. La decisión es simple: implementar una gobernanza real ahora o enfrentar amenazas existenciales para tu negocio después.
La ironía es que una gobernanza responsable de IA no es anti-innovación: es lo que permite una innovación sostenible. Las organizaciones que integran la gobernanza en sus iniciativas de IA desde el principio avanzarán más rápido a largo plazo porque no estarán apagando incendios ni reconstruyendo sistemas para cumplir requisitos.
Mientras avanzamos hacia un futuro dominado por la IA, la pregunta no es si implementarás gobernanza de IA, sino si lo harás de forma proactiva o te verás obligado a hacerlo tras un fallo catastrófico. Lo inteligente es empezar ya, antes de que los reguladores, hackers o tus propios sistemas de IA te obliguen.
Los datos son claros. Los riesgos son reales. El momento de actuar es ahora. Porque en el juego de la gobernanza de IA, o estás en la mesa o eres el plato principal.
Preguntas Frecuentes
Según la Encuesta de Gobernanza de IA 2025 de Pacific AI, solo el 48% de las organizaciones monitorea sus sistemas de IA en producción para precisión, desviaciones o uso indebido. Esto cae dramáticamente al 9% en pequeñas empresas, lo que significa que más del 90% de las pymes no tiene visibilidad sobre el comportamiento de sus sistemas de IA tras la implementación.
Las pequeñas empresas enfrentan riesgos críticos de cumplimiento como la falta de monitoreo de IA (solo el 29% monitorea sistemas), ausencia de roles de gobernanza (solo el 36% los tiene), formación insuficiente (solo el 41% la ofrece) y bajo conocimiento normativo (apenas el 14% conoce los principales estándares). Con la Ley de IA de la UE entrando en vigor en septiembre de 2025, estas brechas pueden derivar en multas significativas y responsabilidad legal.
La investigación de Kiteworks revela que el 26% de las organizaciones informa que más del 30% de los datos que los empleados introducen en herramientas públicas de IA son datos privados o confidenciales. Preocupantemente, solo el 17% de las organizaciones tiene controles técnicos que bloquean el acceso a herramientas públicas de IA junto con escaneo de prevención de pérdida de datos (DLP).
Un plan de respuesta a incidentes específico para IA debe abordar modos de fallo únicos de IA, incluyendo ataques de inyección de prompts, envenenamiento de modelos, filtraciones de datos sintéticos, resultados sesgados, filtraciones de datos por memorización del modelo y alucinaciones de información sensible. Los manuales IT genéricos no son suficientes: solo el 54% de las organizaciones tiene protocolos específicos de IA y apenas el 36% de las pequeñas empresas tiene algún plan.
Sí, varias regulaciones exigen gobernanza de IA, incluyendo el GDPR (para IA que procese datos personales), la Ley de IA de la UE (vigente desde septiembre de 2025), diversas leyes estatales de privacidad en EE. UU. y regulaciones sectoriales como la Ley HIPAA y CMMC 2.0. Para 2025, el 75% de la población mundial estará cubierta por leyes de privacidad que afectan el uso de IA, haciendo la gobernanza legalmente obligatoria para la mayoría de las organizaciones.
Recursos Adicionales
- Artículo del Blog Arquitectura Zero Trust: Nunca Confíes, Siempre Verifica
- Video Cómo Kiteworks Impulsa el Modelo Zero Trust de la NSA en la Capa de Datos
- Artículo del Blog Qué Significa Ampliar Zero Trust a la Capa de Contenido
- Artículo del Blog Cómo Generar Confianza en IA Generativa con un Enfoque Zero Trust
- Video Kiteworks + Forcepoint: Demostrando Cumplimiento y Zero Trust en la Capa de Contenido