DC exige capacitación responsable en IA para cada trabajador del gobierno. Por qué es necesaria — y por qué no es suficiente.
Dale crédito a DC. Mientras que la mayoría de las ciudades aún debaten si tener o no una política de IA, Washington acaba de hacer que todos los empleados y contratistas gubernamentales completen una capacitación en IA responsable. Sin excepciones.
El anuncio de la Oficina del Director de Tecnología de DC convierte al Distrito en la primera gran ciudad de EE. UU. en exigir formación específica en IA para toda su plantilla. El programa, que se realiza a tu propio ritmo a través de InnovateUS, cubre el uso práctico de la IA en el trabajo gubernamental, implicaciones de privacidad, riesgos de deepfakes y consideraciones éticas al integrar IA en los servicios públicos. Empleados y contratistas deben completarlo en 90 días (GovTech).
Stephen Miller, CTO de DC, lo dijo claro: «La IA ya es parte del trabajo diario, y los servidores públicos merecen orientación práctica para usar estas herramientas de forma responsable». La capacitación se basa en la orden ejecutiva de la alcaldesa Bowser de 2024, que establece un marco de gobernanza para el uso de IA en todo el gobierno de la ciudad, guiado por seis valores: beneficio, seguridad, responsabilidad, transparencia, sostenibilidad y privacidad (Technical.ly).
Este es el camino correcto. Y no será suficiente para evitar que los datos gubernamentales terminen filtrándose en sistemas de IA no autorizados.
No es una crítica al enfoque de DC. Es una realidad sobre cómo actúan las personas bajo presión — y cómo se comportan los agentes de IA sin gobernanza.
5 puntos clave
- DC es la primera gran ciudad de EE. UU. en exigir capacitación en IA responsable para todo el personal gubernamental. Washington, DC anunció formación obligatoria en IA responsable para toda su plantilla — empleados y contratistas por igual — convirtiéndose en la primera gran ciudad de EE. UU. en exigir educación específica en IA para servidores públicos. La capacitación, a tu propio ritmo y ofrecida por InnovateUS, cubre las implicaciones éticas, de privacidad y de seguridad del uso de IA en el gobierno, incluyendo cómo se recopilan, procesan y protegen los datos al integrar herramientas de IA en los flujos de trabajo.
- La capacitación es un primer paso fundamental — pero el 98% de las organizaciones tiene Shadow AI a pesar de las políticas. Las investigaciones muestran que el 98% de las organizaciones tiene empleados usando aplicaciones no autorizadas, con un promedio de 1.200 apps no oficiales por organización. La organización promedio experimenta 223 violaciones de políticas de datos relacionadas con IA al mes. La formación enseña a los empleados lo que deben hacer. No evita que hagan lo contrario cuando hay presión por los plazos y las herramientas aprobadas no están disponibles.
- Los datos gubernamentales enfrentan riesgos únicos de IA que la capacitación no puede resolver. Los empleados públicos gestionan información personal identificable de los ciudadanos, registros policiales, deliberaciones de políticas, información de compras y comunicaciones interinstitucionales sensibles. Cuando estos datos llegan a herramientas de IA no autorizadas — ya sea por un empleado bien intencionado que intenta cumplir un plazo o por un agente de IA con permisos excesivos — la exposición es irreversible. Una vez que los datos entran en el conjunto de entrenamiento de un modelo público, no se pueden recuperar, eliminar ni controlar.
- Los agentes de IA amplifican el riesgo más allá de lo que cualquier programa de capacitación puede cubrir. A medida que las agencias gubernamentales implementan agentes de IA — sistemas autónomos que razonan, actúan y acceden a recursos empresariales de forma independiente — los riesgos se multiplican más allá de lo que la capacitación puede abordar. Los agentes de IA pueden ser manipulados mediante instrucciones ocultas en documentos e imágenes para exfiltrar datos sensibles sin interacción del usuario. Un empleado capacitado no puede evitar un ataque que ni siquiera percibe.
- Una gobernanza de IA efectiva requiere cinco capas: educación, política, controles técnicos, monitoreo y auditoría. El mandato de DC cubre las dos primeras capas — educación y política. Las otras tres — controles técnicos que previenen violaciones de políticas, monitoreo que detecta anomalías y registros de auditoría que demuestran cumplimiento — requieren infraestructura, no solo formación. Las organizaciones que combinan capacitación con aplicación técnica no solo reducen el riesgo. Hacen que la formación sea efectiva.
La paradoja de la capacitación: los empleados conocen las reglas y aun así las rompen
Todo CISO conoce la incómoda verdad sobre la capacitación en seguridad: la conciencia no equivale al cumplimiento. Un empleado puede aprobar un módulo de formación con la máxima puntuación a las 10 de la mañana y subir datos sensibles a una herramienta de IA no autorizada a las 2 de la tarde — no porque sea malintencionado, sino porque es humano. Está bajo presión de plazos. La herramienta aprobada es lenta o no está disponible. El documento debe resumirse antes de la reunión de mañana. Y ChatGPT está a un clic de distancia.
Los datos confirman este patrón a gran escala. El 98% de las organizaciones tiene empleados usando aplicaciones no autorizadas, con un promedio de 1.200 apps no oficiales por organización (Varonis 2025 State of Data Security Report). La organización promedio experimenta 223 violaciones de políticas de datos relacionadas con IA al mes. Más del 27% de las empresas admite que más del 30% de la información enviada a herramientas de IA contiene datos confidenciales. Y solo el 17% de las organizaciones tiene controles técnicos que realmente bloquean el acceso a herramientas de IA públicas junto con escaneo DLP.
La pérdida de efectividad de la formación lo empeora. La retención de información cae significativamente entre los 30 y 90 días sin refuerzo. El plazo de 90 días de DC logra que los empleados pasen por el material una vez. La pregunta es qué pasa en el día 91 — y cada día después — cuando el conocimiento se desvanece pero la presión por los plazos sigue.
Imagina el escenario. Un empleado del gobierno de DC ha completado la capacitación en IA responsable. Entiende los riesgos. Sabe que debe usar solo herramientas aprobadas. Pero tiene que resumir un documento de 500 páginas para una reunión del concejo municipal al día siguiente. La herramienta de IA aprobada es lenta. Sube el documento a un servicio público de IA «solo esta vez». Ese documento contiene información personal identificable de ciudadanos, deliberaciones internas o propuestas de políticas sensibles. Ahora los datos están en un sistema público, potencialmente usados para entrenar modelos, fuera del control gubernamental de manera permanente.
La capacitación le dijo que no lo hiciera. Nada lo detuvo.
Confías en que tu organización es segura. Pero ¿puedes comprobarlo?
Leer ahora
Los datos gubernamentales enfrentan riesgos que el sector privado no tiene
Cuando un empleado de una empresa privada sube datos internos a una herramienta de IA no autorizada, la empresa enfrenta una filtración de datos. Cuando lo hace un empleado gubernamental, el público paga el precio.
Las agencias gubernamentales gestionan datos con sensibilidad y obligaciones únicas. Información personal identificable de ciudadanos — números de la Seguridad Social, historiales médicos, información fiscal — recopilada bajo autoridad legal y con una promesa implícita de protección. Registros policiales que podrían poner en peligro a personas o comprometer investigaciones si se exponen. Deliberaciones de políticas que pueden influir en mercados, decisiones de compras o relaciones intergubernamentales. Comunicaciones internas sujetas a la FOIA, la Ley de Privacidad y supervisión de inspectores generales, la GAO y comités legislativos.
Las consecuencias de la exposición van más allá de sanciones económicas. La confianza pública — base de la legitimidad gubernamental — se erosiona cuando los ciudadanos descubren que sus datos fueron usados para entrenar un modelo público de IA porque un empleado quiso ahorrar tiempo en un informe.
La capacitación de DC reconoce estos riesgos. El programa cubre cómo se recopilan, procesan y protegen los datos al integrar herramientas de IA en los flujos de trabajo. Refuerza un enfoque de «humanos en el circuito» que mantiene la responsabilidad en los empleados. Pero la responsabilidad a posteriori no evita la exposición en el momento.
Los agentes de IA crean una categoría de riesgo que la capacitación no puede cubrir
El mandato de capacitación de DC está diseñado para un mundo donde los humanos son quienes interactúan con las herramientas de IA. Ese mundo ya está cambiando. Los agentes de IA — sistemas autónomos que razonan, actúan y acceden a recursos empresariales de forma independiente — están entrando en los flujos de trabajo gubernamentales. Y traen riesgos que ninguna capacitación puede reducir.
El informe Cyber Pulse de Microsoft confirma que más del 80% de las empresas Fortune 500 implementan agentes de IA activos, muchos creados con herramientas low-code que permiten que personas sin experiencia técnica creen agentes. El informe advierte que estos agentes «se están expandiendo más rápido de lo que algunas empresas pueden detectarlos». El informe 2025 de Proofpoint sobre el panorama de seguridad de datos describe un «entorno agentic» que la mayoría de las organizaciones no puede gobernar, con el 32% de las organizaciones considerando el acceso no supervisado de agentes de IA a datos como una amenaza crítica.
La superficie de ataque está probada. Trend Micro demostró que los agentes de IA pueden ser manipulados mediante instrucciones ocultas en documentos e imágenes — provocando exfiltración de datos sin interacción del usuario. Investigadores en arXiv construyeron un exploit completo donde un agente basado en RAG recuperó secretos de su base de conocimiento y los transmitió a un servidor controlado por atacantes, usando la propia herramienta de búsqueda web del agente como canal de exfiltración. Su conclusión: las funciones de seguridad integradas en los modelos no son suficientes sin capas defensivas adicionales.
Un empleado capacitado no puede evitar un ataque de inyección de prompts contra un agente de IA que ni siquiera sabe que está funcionando. Un empleado capacitado no puede detectar que un agente con acceso a registros de ciudadanos está transmitiendo datos a un destino no autorizado. Un empleado capacitado no puede detener lo que no puede ver.
A medida que las agencias gubernamentales avanzan hacia una IA agentic — y el propio marco de gobernanza de IA de DC contempla expandir el uso de IA en las operaciones de la ciudad — la distancia entre lo que cubre la capacitación y lo que previenen los controles técnicos se ampliará. La capacitación enseña a las personas. Los controles técnicos gobiernan a las máquinas.
Cómo es una gobernanza de IA completa: cinco capas, no una
El mandato de capacitación de DC es una pieza importante de la gobernanza de IA. No es el panorama completo. Una gobernanza de IA efectiva requiere cinco capas trabajando juntas, y la capacitación solo cubre la primera.
La primera capa es la educación — exactamente lo que implementa DC. Formación del personal sobre uso responsable de IA, concienciación de riesgos, comprensión de políticas y herramientas aprobadas. Esta capa depende del cumplimiento humano. Es necesaria pero insuficiente.
La segunda capa es la política — los marcos de gobernanza que DC estableció mediante la orden ejecutiva de la alcaldesa Bowser. Reglas escritas para el uso aceptable de IA, herramientas aprobadas, requisitos de clasificación de datos. Esta capa crea expectativas. Las políticas no se aplican solas.
La tercera capa son los controles técnicos — la infraestructura que previene violaciones de políticas sin importar el comportamiento del empleado. DLP que bloquea la carga de datos sensibles a servicios de IA no autorizados. Puertas de enlace seguras que ofrecen alternativas de IA aprobadas para que los empleados no recurran a Shadow AI. Controles de acceso de confianza cero que determinan a qué pueden acceder los agentes de IA. Aquí es donde ocurre la aplicación real.
La cuarta capa es el monitoreo — detección en tiempo real de violaciones de políticas y anomalías. Identificar cuándo un empleado intenta usar una herramienta de IA no autorizada. Señalar cuando un agente de IA solicita datos fuera de su alcance autorizado. Detectar patrones de acceso inusuales que indiquen compromiso o uso indebido. Esta capa cierra la brecha entre lo que dice la política y lo que realmente sucede.
La quinta capa es la auditoría — registros inmutables de cada interacción entre IA y datos que demuestran cumplimiento ante organismos de supervisión. Cuando un inspector general pregunta cómo interactúan los datos gubernamentales con sistemas de IA, necesitas pruebas — no solo un certificado de capacitación. Registros de auditoría integrales que muestran quién accedió a qué datos, a través de qué sistema de IA, cuándo y qué pasó con ellos.
DC tiene las capas uno y dos. Las tres restantes requieren infraestructura.
Aplicar lo que enseña la capacitación: la capa técnica que hace funcionar la gobernanza de IA
La Red de Datos Privados de Kiteworks proporciona las tres capas que la capacitación y la política no pueden — controles técnicos, monitoreo y auditoría — en una sola plataforma diseñada para organizaciones reguladas.
Para prevenir Shadow AI, la puerta de enlace de datos IA de Kiteworks bloquea que datos sensibles fluyan hacia servicios de IA no autorizados mientras ofrece una alternativa segura y gobernada. En vez de decirle a los empleados que no usen herramientas públicas de IA y esperar que cumplan, la plataforma aplica la política de forma técnica. El escaneo DLP detecta datos sensibles y previene su transmisión. La puerta de enlace segura ofrece un flujo de trabajo de IA aprobado donde los empleados pueden usar IA de forma productiva sin que los datos salgan del control gubernamental. Cuando el empleado capacitado enfrenta ese documento de 500 páginas y la presión del plazo, tiene un camino gobernado — no solo una política que le dice lo que no puede hacer.
Para gobernar agentes de IA, el servidor MCP seguro de Kiteworks aísla la ejecución de agentes de IA con autenticación OAuth 2.0, detección de anomalías y aplicación de marcos de gobernanza existentes. Cada agente de IA se trata como una identidad distinta que requiere verificación de confianza cero. El acceso se limita a los datos mínimos necesarios para cada función. Los flujos de datos salientes están gobernados para evitar exfiltraciones — ya sea por un agente comprometido, un prompt manipulado o un flujo de trabajo mal configurado. Esta es la capa que aborda los riesgos de los agentes de IA que ninguna capacitación puede cubrir.
Para demostrar responsabilidad, Kiteworks ofrece registros de auditoría integrales e inmutables que capturan cada interacción entre IA y datos — quién, qué, cuándo, dónde y cómo — en uso compartido de archivos, transferencia de archivos gestionada, correo electrónico, formularios web, APIs e interacciones con IA. Las alertas en tiempo real señalan violaciones de políticas en el momento en que ocurren. Un panel CISO brinda visibilidad sobre el acceso a datos de IA en toda la organización. Cuando los organismos de supervisión piden pruebas de que las políticas de gobernanza de IA se aplican — y no solo están documentadas — las organizaciones que usan Kiteworks pueden demostrarlo desde un solo sistema.
Para agencias gubernamentales en particular, Kiteworks cuenta con autorización FedRAMP High y soporta implementaciones locales, en nube privada e híbridas — cumpliendo los requisitos de residencia y soberanía de datos que enfrentan las organizaciones gubernamentales. Los controles de cumplimiento preconfigurados cubren FISMA, la Ley de Privacidad, HIPAA, CMMC y requisitos regulatorios emergentes específicos de IA.
Forma a tu gente. Controla tus datos.
El mandato de capacitación en IA responsable de DC merece reconocimiento. Señala que el gobierno toma en serio la gobernanza de IA, que los servidores públicos necesitan orientación práctica y que los principios de política deben traducirse en la práctica diaria. Otras jurisdicciones y empresas deberían seguir el ejemplo de DC.
Pero la capacitación por sí sola nunca ha sido suficiente para evitar filtraciones de datos — ni en phishing, ni en higiene de contraseñas, ni en IA. Las organizaciones que realmente gobiernan la IA combinan educación con aplicación. Forman a su personal en el uso responsable de IA y despliegan la infraestructura técnica que garantiza que el uso responsable de IA sea la única opción disponible.
La lección del anuncio de DC no es que la capacitación sea innecesaria. Es que la capacitación es el inicio de la gobernanza de IA, no el final. Las organizaciones que la traten como el final se unirán al 98% que tiene Shadow AI funcionando a pesar de sus mejores políticas.
Las que combinan capacitación con controles técnicos serán las que mantengan sus datos donde deben estar.
Para saber cómo Kiteworks puede ayudarte, agenda una demo personalizada hoy.
Preguntas frecuentes
La capacitación enseña a los empleados cómo es el uso responsable de la IA — pero no puede anular el comportamiento humano bajo presión. Las investigaciones lo confirman: el 98% de las organizaciones tiene empleados usando aplicaciones no autorizadas a pesar de tener políticas, y la organización promedio experimenta 223 violaciones de políticas de datos relacionadas con IA al mes. La retención de información también se degrada significativamente entre los 30 y 90 días después de la capacitación si no se refuerza. Cuando llega el plazo y la herramienta aprobada es lenta, los empleados buscan lo que funcione. La única solución fiable es la aplicación técnica: controles DLP que bloquean cargas no autorizadas y una puerta de enlace de IA gobernada que ofrece a los empleados una alternativa que cumple — así no tienen que elegir entre productividad y política.
Las agencias gubernamentales gestionan categorías de datos cuyas consecuencias van mucho más allá de una filtración corporativa típica. Información personal identificable de ciudadanos — números de la Seguridad Social, historiales médicos, información fiscal — recopilada bajo autoridad legal y con una promesa implícita de protección. Registros policiales que podrían poner en peligro a personas o comprometer investigaciones activas. Deliberaciones de políticas que pueden influir en mercados o resultados de compras. Comunicaciones internas sujetas a la FOIA, la Ley de Privacidad y la supervisión de inspectores generales y comités legislativos. Cuando estos datos entran en el conjunto de entrenamiento de un modelo público de IA, no se pueden recuperar, eliminar ni controlar. El daño reputacional y a la confianza pública se suma a la exposición legal.
Los agentes de IA son sistemas autónomos que acceden a datos empresariales de forma independiente — sin dirección humana para cada acción. Introducen dos categorías de riesgo distintas que la capacitación no puede cubrir. Primero, la inyección de prompts: los investigadores han demostrado que instrucciones ocultas en documentos, imágenes o páginas web pueden manipular a un agente para exfiltrar datos sensibles sin interacción del usuario. Un empleado capacitado no puede detener un ataque que nunca ve. Segundo, acceso excesivo: los agentes suelen operar como identidades con privilegios elevados y mucho mayor acceso a datos que cualquier usuario humano tendría. Gobernarlos requiere controles de acceso de confianza cero, ejecución aislada y registros de auditoría a nivel de datos — nada de esto lo proporciona un programa de capacitación.
Una gobernanza de IA efectiva requiere cinco capas: educación (formación del personal sobre uso responsable), política (marcos de gobernanza y listas de herramientas aprobadas), controles técnicos (DLP que bloquea cargas no autorizadas, puertas de enlace seguras de IA, controles de acceso de confianza cero para agentes de IA), monitoreo (detección en tiempo real de violaciones de políticas y comportamientos anómalos de agentes) y auditoría (registros inmutables de cada interacción entre IA y datos para cumplimiento y supervisión). La capacitación cubre la primera capa. Es necesaria pero, sin las otras cuatro, funciona solo como documentación de intención y no como aplicación del comportamiento. DC ha construido las capas uno y dos; las tres restantes requieren inversión en infraestructura.
Las agencias gubernamentales enfrentan un entorno de cumplimiento múltiple que se cruza directamente con cómo las herramientas de IA acceden, procesan y transmiten datos sensibles. FISMA exige que los sistemas de información federales cumplan controles de seguridad definidos, lo que se extiende a cualquier herramienta de IA que procese datos gubernamentales. La Ley de Privacidad regula cómo la información personal identificable en manos de agencias federales se recopila, usa y divulga — incluyendo sistemas automatizados. La autorización FedRAMP es obligatoria para servicios en la nube usados por agencias federales, lo que significa que las plataformas de IA deben cumplir los estándares FedRAMP. HIPAA aplica cuando la IA accede a información de salud protegida. CMMC regula a los contratistas que gestionan información no clasificada controlada. Y los nuevos mandatos específicos de IA — incluidas órdenes ejecutivas y marcos de gobernanza de IA a nivel de agencia — están añadiendo requisitos de documentación, auditoría y supervisión humana sobre los controles existentes.
Recursos adicionales
- Artículo del Blog Arquitectura Zero Trust: Nunca confíes, siempre verifica
- Video Microsoft GCC High: Desventajas que impulsan a los contratistas de defensa hacia ventajas más inteligentes
- Artículo del Blog Cómo proteger datos clasificados una vez que DSPM los detecta
- Artículo del Blog Generar confianza en la IA generativa con un enfoque Zero Trust
- Video La guía definitiva para el almacenamiento seguro de datos sensibles para líderes de TI