Crisis de la IA en la sombra: Soluciona el riesgo de seguridad oculto en el sector público
Estados Unidos alberga el ecosistema de IA más avanzado del planeta. Las empresas estadounidenses están construyendo los modelos más innovadores. Los investigadores estadounidenses publican los artículos más revolucionarios. El capital de riesgo estadounidense impulsa la próxima generación de startups de IA.
Y, sin embargo, cuando se trata de poner la IA a trabajar dentro del gobierno, EE. UU. está quedando atrás de países a los que debería superar con facilidad.
Aspectos clave
- La Shadow AI ya es un riesgo de seguridad en todo el gobierno. En las agencias que no han proporcionado herramientas de IA aprobadas, el 64% de los empleados públicos usan credenciales personales en el trabajo y el 70% utiliza IA sin que su responsable lo sepa. Los datos gubernamentales —incluida información personal identificable de los ciudadanos, registros fiscales y archivos policiales— están circulando por herramientas de IA de consumo no verificadas, sin registros auditables, sin supervisión y sin capacidad de respuesta ante incidentes.
- EE. UU. ocupa el séptimo lugar de 10 países a pesar de liderar el desarrollo global de IA. Estados Unidos obtuvo solo 45 de 100 puntos en el Índice de Adopción de IA en el Sector Público, quedando por detrás de Sudáfrica y Brasil. La brecha no es tecnológica: es de gobernanza, directrices claras e infraestructura segura que brinde a los empleados públicos la confianza para usar IA en su trabajo diario.
- Restringir el acceso a la IA genera más riesgo que habilitarla de forma segura. Las organizaciones que optan por «avanzar con cuidado» limitando el acceso a la IA no detienen su uso: lo empujan a la clandestinidad. Los datos del índice muestran que la habilitación segura, con herramientas aprobadas, controles de gobernanza de datos y registros de auditoría integrales, es el único enfoque que reduce el riesgo y, al mismo tiempo, libera ganancias de productividad.
- Integrar la IA en los flujos de trabajo es lo que desbloquea el verdadero valor. EE. UU. obtuvo solo 39 de 100 puntos en integración —la puntuación más baja de las cinco dimensiones del índice—. Esto importa porque el 61% de los empleados públicos en entornos con alta integración reportan beneficios del uso avanzado de IA, frente a solo el 17% donde la integración es baja. Cuando la IA se integra en los sistemas que la gente ya utiliza, las mejoras de productividad se extienden a todos los grupos de edad y niveles de habilidad.
- Los empleados públicos no piden presupuesto, piden claridad y seguridad. Cuando se les preguntó qué fomentaría un uso más frecuente de la IA, los empleados públicos estadounidenses priorizaron directrices claras (38%), herramientas más fáciles de usar (36%) y garantías de privacidad de datos (34%). El presupuesto dedicado quedó en último lugar, con solo un 12%. Las barreras para la adopción pueden resolverse con políticas, comunicación y adquisiciones inteligentes, no con grandes gastos nuevos.
El Índice de Adopción de IA en el Sector Público 2026, publicado recientemente por Public First para el Center for Data Innovation con patrocinio de Google, encuestó a 3,335 empleados públicos en 10 países —incluidos 301 en Estados Unidos—. EE. UU. ocupa el séptimo lugar de diez, con solo 45 de 100 puntos. Esto lo sitúa por debajo de Sudáfrica y Brasil, y muy lejos de adoptantes avanzados como Singapur (58), Arabia Saudita (66) e India (58).
Esto no es un problema tecnológico. Es un problema de gobernanza, seguridad y liderazgo —y está generando un enorme riesgo de shadow AI que la mayoría de los responsables de TI gubernamentales están ignorando.
Las cifras que deberían quitar el sueño a cualquier CISO gubernamental
El índice mide cómo experimentan la IA los empleados públicos en cinco dimensiones: entusiasmo, capacitación, habilitación, integración y educación. En EE. UU., las puntuaciones reflejan una fuerza laboral con acceso a IA, pero sin la confianza, claridad ni infraestructura segura para usarla correctamente:
- Entusiasmo: 43/100 — una de las puntuaciones más bajas a nivel global. El 40% de los empleados públicos estadounidenses describe la IA como «abrumadora».
- Educación: 50/100 — existe formación, pero suele ser introductoria y distribuida de manera desigual entre organizaciones.
- Capacitación: 46/100 — más de uno de cada tres empleados públicos no sabe si su organización siquiera tiene una política formal de IA.
- Habilitación: 45/100 — hay herramientas disponibles, pero «acceso» no significa «seguridad» ni «cumplimiento».
- Integración: 39/100 — la puntuación más baja de las cinco. Las herramientas de IA conviven con sistemas heredados en vez de integrarse en los flujos de trabajo.
Casi la mitad de los empleados públicos estadounidenses (45%) opina que su organización debería «avanzar con cuidado para evitar errores». Menos de la mitad siente que recibe instrucciones claras de los líderes sobre cómo debe usarse la IA. Solo el 56% dice sentirse seguro usando herramientas de IA.
Estas no son cifras de una fuerza laboral que rechaza la IA. Son cifras de empleados esperando que alguien les diga que es seguro avanzar.
La bomba de tiempo de la Shadow AI
Este es el hallazgo que debería preocupar a cualquier CISO gubernamental.
En entornos con baja habilitación, el 64% de los trabajadores entusiastas de la IA declara usar credenciales personales en el trabajo, y el 70% utiliza IA para tareas laborales sin que su responsable lo sepa.
Cuando los gobiernos no proporcionan herramientas de IA aprobadas, políticas claras o soporte accesible, los empleados públicos no dejan de usar IA. Simplemente lo hacen por su cuenta, fuera de los controles. Y las consecuencias son mucho más graves que un simple incumplimiento.
Piénsalo en la práctica para las agencias federales de EE. UU.: datos gubernamentales circulando por cuentas personales de ChatGPT sin supervisión, sin registros auditables y sin controles de seguridad de datos. Información sensible de ciudadanos —PII/PHI, registros fiscales, datos policiales— potencialmente ingresando en LLM públicos para resumir, analizar o redactar. Decisiones de política pública influenciadas por herramientas de IA no validadas en cuanto a precisión, sesgo o idoneidad. Y posibles violaciones de cumplimiento en HIPAA, FISMA y leyes estatales de privacidad, sin pruebas forenses para determinar el alcance.
La ironía es evidente. Las organizaciones que intentan ser «cautelosas» con la IA restringiendo el acceso están generando mucho más riesgo que aquellas que proporcionan herramientas aprobadas con directrices claras de uso. Los datos del índice lo confirman en todos los países analizados.
La conversación debe pasar de «¿debemos permitir la IA?» a «¿cómo habilitamos la IA de forma segura?». La infraestructura necesaria para cerrar esta brecha debe permitir la productividad con IA mediante herramientas como Claude, ChatGPT y Copilot, manteniendo los datos sensibles dentro de una red privada. Los marcos de gobernanza existentes (RBAC/ABAC) deben aplicarse a todas las interacciones con IA, cada operación de IA debe quedar registrada para cumplimiento y forense, y el contenido confidencial nunca debe salir del entorno de confianza. Secure MFT Server de Kiteworks es un ejemplo de este enfoque en la práctica. Para las agencias federales, la autorización FedRAMP y la alineación con los memorandos de IA de la Casa Blanca y el Marco de Gestión de Riesgos de IA del NIST garantizan que estas protecciones se ajustan a las obligaciones de cumplimiento existentes.
La alternativa —pretender que restringir el acceso detendrá el uso— es una fantasía que los datos del índice han desmontado con cifras contundentes.
La brecha de traducción: ambición federal vs. realidad en la primera línea
El gobierno federal no ha estado inactivo. Casi el 90% de las agencias federales ya utiliza IA de alguna forma, según investigaciones recientes de Google. Las órdenes ejecutivas de la Casa Blanca y el Plan de Acción de IA de Estados Unidos han posicionado la IA como prioridad estratégica. La Oficina de Administración y Presupuesto ha emitido directrices actualizadas sobre gobernanza y adquisición de IA. Los CIO estatales han situado la IA como su máxima prioridad para 2026, con más del 90% de los estados al menos en fase piloto de proyectos de IA.
Así que los cimientos están puestos. Pero el índice revela una clara brecha de traducción entre la actividad a nivel de agencia y la experiencia en la primera línea.
Los empleados públicos estadounidenses reportan algunos de los niveles más altos de experiencia personal con IA en el índice. El 76% dice usar IA en su vida personal, y casi tres cuartas partes (72%) de ellos también la usan en el trabajo. Casi nueve de cada diez (89%) que usan IA en el trabajo declaran tener acceso a herramientas a través de su organización. Alrededor de un tercio (32%) tiene acceso a herramientas de IA de nivel empresarial, una proporción superior a la de muchos otros países.
Pero ese acceso no se ha traducido en un uso seguro y entusiasta. EE. UU. obtuvo solo 43/100 en entusiasmo, lo que significa que la mayoría de los empleados públicos aún no percibe beneficios claros y específicos para su función en las tareas diarias. La IA se describe más a menudo como abrumadora que como capacitadora. Menos trabajadores reportan beneficios tangibles como ahorro de tiempo o que la IA funcione como asistente eficaz.
Y el «acceso» que existe suele carecer de los controles de seguridad y gobernanza que exigen los entornos federales. La mayoría de las agencias proporciona herramientas de IA genéricas sin acuerdos de protección de datos. No hay registros auditables que rastreen qué datos se compartieron con los sistemas de IA, cuándo o por quién. No existe la posibilidad de revocar el acceso o eliminar datos de los conjuntos de entrenamiento de IA después de su uso. La puntuación de habilitación refleja disponibilidad, no seguridad, y esa distinción es crucial cuando están en juego datos gubernamentales.
Compáralo con lo que han construido los adoptantes avanzados. En Singapur, el 73% de los empleados públicos tiene claro para qué pueden y no pueden usar la IA, y el 58% sabe exactamente a quién acudir cuando surge un problema. En Arabia Saudita, una estrategia nacional de arriba hacia abajo ha hecho que la IA se perciba como modernización y no como disrupción, con el 65% accediendo a herramientas de IA empresariales y el 79% usando IA para tareas avanzadas o técnicas. En India, el 83% de los trabajadores del sector público es optimista respecto a la IA y el 59% quiere que cambie radicalmente su trabajo diario.
Estos países no tuvieron éxito porque tuvieran mejor tecnología que EE. UU. Lo lograron porque facilitaron que los empleados públicos usaran la IA con confianza. Reglas claras. Herramientas aprobadas. Soporte visible. EE. UU. tiene la ventaja tecnológica; lo que le falta es el tejido conectivo.
La capa que falta: gobernanza de datos de IA
El índice reveló que los empleados públicos estadounidenses quieren «directrices claras y prácticas sobre cómo aplicar la IA en el sector público» (38%) y «garantía de privacidad y seguridad de los datos» (34%). No son preferencias abstractas. Señalan una brecha fundamental que está en la base de todos los retos de adopción: la mayoría de las agencias gubernamentales no tiene visibilidad sobre qué datos se comparten con los sistemas de IA.
¿Qué empleados usan IA y para qué fines? ¿Si las salidas generadas por IA contienen información sensible que no debería compartirse externamente? ¿Cómo aplicar políticas de clasificación de datos cuando intervienen herramientas de IA? Para la mayoría de las agencias, la respuesta honesta a todas estas preguntas es «no lo sabemos».
Aquí es donde los marcos de gobernanza de datos de IA se vuelven esenciales, no como barrera para la adopción, sino como la base que permite una adopción segura. Las capacidades de administración de postura de seguridad de datos (DSPM) pueden descubrir y clasificar datos sensibles en todos los repositorios, incluidos los que se ingresan en sistemas de IA. La aplicación automática de políticas puede bloquear que datos privilegiados o confidenciales sean ingeridos por la IA según las etiquetas de clasificación. Los registros de auditoría integrales pueden rastrear todas las interacciones entre IA y datos. Y, alineadas con el Marco de Gestión de Riesgos de IA del NIST, estas capacidades ayudan a las agencias a gobernar, mapear y administrar los riesgos de IA durante todo el ciclo de vida de los datos.
Las capacidades necesarias para cerrar esta brecha son claras: integración de DSPM con aplicación automática de políticas y registros de auditoría inmutables, permitiendo a las organizaciones etiquetar los datos según su nivel de sensibilidad —público, interno, confidencial, clasificado— y hacer cumplir esas clasificaciones automáticamente cuando intervienen herramientas de IA. Cada interacción IA-datos debe quedar registrada con ID de usuario, marca de tiempo, datos accedidos y el sistema de IA utilizado. Private Data Network de Kiteworks ofrece este enfoque, combinando estas capacidades en una plataforma unificada. No es solo una cuestión de cumplimiento; es la infraestructura que permite una adopción segura de IA a gran escala.
Sin esta capa, los gobiernos están a ciegas ante el riesgo de IA. Con ella, pueden decir «sí» al uso de IA con la confianza de que los datos sensibles están protegidos, que es exactamente lo que piden los empleados públicos.
¿Qué piden los empleados públicos estadounidenses?
Cuando se les preguntó qué les animaría a usar herramientas de IA con más frecuencia, los empleados públicos estadounidenses fueron muy concretos:
- Directrices claras y prácticas sobre cómo aplicar la IA en el sector público (38%)
- Herramientas más fáciles de usar que no requieran habilidades técnicas especializadas (36%)
- Garantía de privacidad y seguridad de los datos (34%)
- Formación o apoyo para mejorar habilidades adaptado a funciones específicas (30%)
- Mejor integración con el software y los sistemas existentes (29%)
Observa lo que no está en la parte superior de la lista: el presupuesto dedicado (12%) y el respaldo de la alta dirección (20%) están casi al final. Los empleados públicos no piden grandes programas nuevos ni iniciativas costosas. Piden claridad, facilidad de uso y confianza, cosas que pueden lograrse mediante políticas, comunicación y adquisiciones inteligentes.
Y observa cómo las tres principales peticiones —directrices, facilidad de uso y garantía de seguridad de los datos— forman un todo interconectado. No puedes dar directrices claras sin saber qué es seguro usar. No puedes garantizar la privacidad de los datos sin infraestructura de gobernanza. Y no puedes hacer que las herramientas sean fáciles de usar si los empleados públicos están paralizados por la incertidumbre de si usarlas les traerá problemas. Resolver una sin las otras no funciona.
Por qué la integración importa más que nada
EE. UU. obtuvo la puntuación más baja en integración (39/100), y los datos del índice explican por qué esa es la métrica más relevante.
En todos los países, el 61% de los trabajadores en entornos con alta integración reportan beneficios al usar IA para tareas avanzadas o técnicas, frente a solo el 17% donde la integración es baja. La integración también iguala el terreno entre grupos de edad: en entornos con alta integración, el 58% de los empleados públicos de 55 años o más reportan ahorrar más de una hora usando IA, frente a solo el 16% en contextos con baja integración. Cuando la IA se integra en los sistemas que la gente ya utiliza, la adopción deja de depender de la destreza tecnológica y pasa a ser cuestión de que todos mejoren en su trabajo.
Actualmente, EE. UU. está en el extremo opuesto de este espectro. El índice describe «infraestructura formal mínima, con pocos apoyos, inversión limitada y barreras significativas para la integración con los sistemas existentes». Hasta que la integración no mejore, las ganancias de productividad prometidas por la IA seguirán concentradas en un pequeño grupo de adoptantes tempranos en vez de beneficiar a toda la fuerza laboral.
Tres prioridades que pueden cambiar el rumbo
El índice señala tres acciones concretas que, si se abordan en conjunto, podrían acelerar la adopción de IA en los servicios públicos estadounidenses.
Primero, establecer un mandato claro desde arriba, respaldado por infraestructura aprobada y segura. Los empleados públicos necesitan una garantía constante y visible de que el uso de IA está fomentado, respaldado y alineado con los valores del servicio público. Pero el permiso sin protección es imprudente. Las agencias deben implementar soluciones de IA empresariales con acuerdos de protección de datos, controles de gobernanza y registros integrales, asegurando que los datos sensibles nunca salgan de la red privada. Plataformas como Secure MCP Server de Kiteworks demuestran cómo puede funcionar esto en la práctica: habilitar la productividad con IA en herramientas como Claude, ChatGPT y Copilot, manteniendo los controles de gobernanza de datos que exigen las agencias federales. Cuando los empleados públicos saben que las herramientas que usan están aprobadas, cumplen con la normativa y son monitoreadas, el permiso cultural llega de forma natural.
Segundo, generar confianza mediante evidencia y preparación ante incidentes. Muchos empleados públicos estadounidenses aún no han visto beneficios claros y específicos para su función gracias a la IA. Compartir ejemplos concretos de ahorro de tiempo, mejora en la prestación de servicios o mejores decisiones ayudaría a que la IA sea tangible y no abstracta. Pero la confianza también requiere preparación ante incidentes. Imagina el escenario: un empleado público pega por error miles de números de la Seguridad Social de ciudadanos en una herramienta de IA pública. Los datos ya están en los sistemas del proveedor, posiblemente almacenados indefinidamente. ¿Puede la agencia responder qué se expuso, cuándo, por quién y qué otros datos sensibles se han compartido? Sin registros de auditoría inmutables, integración con SIEM y documentación de cadena de custodia, la respuesta es no. Las capacidades de respuesta a incidentes para escenarios específicos de IA no son opcionales: son el requisito mínimo para una adopción responsable.
Tercero, integrar formación y directrices prácticas adaptadas a cada función. La conciencia sobre la IA es alta en EE. UU., pero la confianza no. Formación breve y práctica, adaptada a funciones específicas, puede cerrar esa brecha. Esto significa permiso explícito para tareas de bajo riesgo —redacción, investigación, resumen, lluvia de ideas— junto con directrices específicas que muestren cómo la IA apoya tareas habituales. Plantillas, prompts compartidos y ejemplos prácticos facilitan la adopción. Colaborar con proveedores tecnológicos de confianza puede ayudar a ofrecer formación a escala y, al mismo tiempo, brindar la garantía de seguridad y protección de datos que los empleados públicos exigen.
Lo que está en juego va más allá de los rankings
Que EE. UU. ocupe el séptimo lugar en este índice es vergonzoso, pero el verdadero coste no es reputacional, sino operativo. Cada día que los empleados públicos carecen de herramientas de IA seguras y aprobadas es otro día en que los datos gubernamentales circulan por cuentas personales sin supervisión. Cada semana sin directrices claras es otra semana de ganancias de productividad desaprovechadas. Cada mes sin gobernanza de IA integrada es otro mes en que la brecha entre el sector privado estadounidense y su sector público se amplía.
La shadow AI ya está aquí. El 70% de los empleados públicos usa IA; muchos lo hacen fuera de los canales aprobados. Restringir el acceso genera más riesgo, no menos. Las herramientas existen; lo que falta es infraestructura segura y aprobada, junto con permiso cultural y directrices claras.
Los 301 empleados públicos estadounidenses encuestados en este índice envían un mensaje claro: danos las directrices, danos las herramientas seguras y déjanos trabajar. La pregunta es si los líderes gubernamentales están escuchando y si están dispuestos a resolver el problema de la shadow AI antes de que se convierta en una crisis de seguridad de datos a gran escala.
Preguntas frecuentes
El Índice de Adopción de IA en el Sector Público 2026 es un estudio global realizado por Public First para el Center for Data Innovation, patrocinado por Google. Encuestó a 3,335 empleados públicos en 10 países —incluidos 301 en Estados Unidos— para medir cómo se experimenta la IA en los entornos gubernamentales. El índice puntúa a los países en cinco dimensiones: entusiasmo, capacitación, habilitación, integración y educación, cada una en una escala de 0 a 100. Va más allá de medir si los gobiernos tienen estrategias de IA y examina si los empleados públicos cuentan con herramientas, formación, permisos e infraestructura para usar la IA de manera eficaz en sus funciones diarias.
Estados Unidos ocupa el séptimo lugar de 10 países, con una puntuación general de 45 sobre 100. Su mejor puntuación es en educación (50/100) y habilitación (45/100), lo que refleja la disponibilidad de formación y acceso a herramientas, pero obtiene la puntuación más baja en integración (39/100), lo que significa que la IA rara vez se integra en los flujos de trabajo cotidianos. EE. UU. queda por detrás de adoptantes avanzados como Arabia Saudita (66), Singapur (58) e India (58), así como de Sudáfrica (55) y Brasil (49). El índice caracteriza a EE. UU. como un «adoptante desigual»: un país con sólidos cimientos de IA y actividad a nivel de agencia, pero con una difusión más lenta hacia un uso seguro y cotidiano por parte de los empleados públicos en la primera línea.
La shadow AI se refiere a empleados públicos que utilizan herramientas de IA no aprobadas —a menudo cuentas personales en servicios como ChatGPT— para tareas laborales sin conocimiento ni supervisión de la organización. El Índice de Adopción de IA en el Sector Público detectó que, en entornos con baja habilitación, el 64% de los usuarios entusiastas de IA recurren a credenciales personales en el trabajo y el 70% usa IA sin que su responsable lo sepa. Esto genera graves riesgos de seguridad para las agencias gubernamentales: datos sensibles de ciudadanos (información personal identificable, información de salud protegida, registros fiscales, información policial) pueden ser ingresados en modelos públicos de lenguaje sin registros auditables, sin controles de protección de datos y sin posibilidad de determinar qué se expuso en caso de filtración. La shadow AI también genera posibles incumplimientos de HIPAA, FISMA y leyes estatales de privacidad.
Según el índice, los empleados públicos estadounidenses identificaron como sus tres prioridades principales: directrices claras y prácticas sobre cómo aplicar la IA en el sector público (38%), herramientas más fáciles de usar que no requieran habilidades técnicas especializadas (36%) y garantía de privacidad y seguridad de los datos (34%). La formación adaptada a funciones específicas (30%) y una mejor integración con los sistemas existentes (29%) también obtuvieron puntuaciones altas. Es relevante que el presupuesto dedicado a proyectos de IA quedó en último lugar con solo un 12%, y el respaldo de la alta dirección solo alcanzó el 20%. Esto sugiere que las principales barreras para la adopción no son financieras, sino estructurales: los empleados públicos necesitan claridad sobre lo que está permitido, herramientas seguras e intuitivas y confianza en que el uso de IA no generará riesgos de cumplimiento ni para su carrera.
Los datos del índice —y la experiencia de los países adoptantes avanzados— sugieren que las agencias deben pasar de restringir el acceso a la IA a habilitarla de forma segura. Esto implica implementar herramientas de IA empresariales aprobadas con controles de gobernanza de datos integrados, como plataformas que mantienen los datos sensibles dentro de la red privada y, al mismo tiempo, permiten la productividad con asistentes de IA como Claude, ChatGPT y Copilot. Las agencias deben aplicar administración de postura de seguridad de datos (DSPM) para clasificar datos sensibles y aplicar políticas automáticamente, mantener registros de auditoría inmutables de todas las interacciones IA-datos y establecer capacidades de respuesta a incidentes específicas para escenarios de exposición de datos con IA. Soluciones como Secure MCP Server de Kiteworks, que cuenta con autorización FedRAMP y está alineada con el Marco de Gestión de Riesgos de IA del NIST, demuestran cómo las agencias pueden habilitar la productividad con IA sin sacrificar la seguridad de los datos ni el cumplimiento.
Arabia Saudita (66/100), Singapur (58/100) e India (58/100) son los países mejor posicionados en el índice. Cada uno siguió un camino diferente, pero comparten elementos comunes: reglas claras sobre para qué pueden y no pueden usar IA los empleados públicos, herramientas aprobadas y seguras proporcionadas por la organización y liderazgo visible que presenta la IA como modernización y no como riesgo. Singapur construyó plataformas centralizadas con directrices estandarizadas a través de su iniciativa Smart Nation. Arabia Saudita ejecutó una estrategia nacional de arriba hacia abajo vinculada a Vision 2030 con implementación de IA a nivel empresarial. India impulsó la adopción mediante impulso cultural con cursos gratuitos de IA organizados por el gobierno y mensajes positivos constantes. Ninguno de estos países tenía mejor tecnología de IA que Estados Unidos: triunfaron porque facilitaron y aseguraron el uso cotidiano de la IA por parte de los empleados públicos.