La crisis de adopción de IA en el sector público francés: Francia queda en último lugar
Francia lo ha hecho casi todo bien sobre el papel. Una Estrategia Nacional de IA desde 2018. Miles de millones invertidos a través de France 2030. Instituciones de investigación de primer nivel. Un marco de «IA de confianza» alineado estrechamente con la Ley de IA de la UE. Un compromiso declarado con la soberanía tecnológica y la modernización del servicio público.
Aspectos clave
- Francia ocupa el último lugar en adopción de IA en el sector público, a pesar de ser pionera. Francia obtuvo solo 42 de 100 en el Índice de Adopción de IA en el Sector Público, quedando en el puesto 10 de 10 países encuestados. Esto, a pesar de lanzar su Estrategia Nacional de IA en 2018, invertir fuertemente mediante France 2030 y construir uno de los ecosistemas de investigación en IA más sólidos de Europa. La estrategia no se ha traducido en prácticas en la primera línea.
- Casi la mitad de los empleados públicos franceses nunca ha usado IA en el trabajo. Alrededor del 45% de los trabajadores del sector público francés afirma no haber usado nunca herramientas de IA en su función, el perfil de adopción más bajo de todo el índice. Más de la mitad dice que el uso de IA se ha estancado o disminuido en el último año, lo que apunta a una plantilla que no solo es cautelosa, sino que se está desvinculando.
- Dos tercios de los empleados públicos franceses no han recibido ninguna formación en IA. El 66% declara no haber recibido formación sobre cómo usar la IA. Más de 1 de cada 3 no tiene claro para qué puede o no puede usar la IA en el trabajo. Sin formación ni orientación, incluso los empleados públicos dispuestos no tienen una vía de entrada a la adopción, y los riesgos de shadow AI derivados de la experimentación sin apoyo aumentan.
- Francia está atrapada en un ciclo auto-reforzado de baja adopción. Una integración débil limita la adopción. La baja adopción limita los beneficios visibles. La ausencia de beneficios mantiene el bajo optimismo. Francia es el país menos optimista del índice, con solo el 33% de los empleados públicos sintiéndose positivos respecto a la IA en el sector público. Casi 1 de cada 3 cree que nada de lo que hace en el trabajo puede ser realizado por IA.
- Casi 6 de cada 10 empleados públicos franceses nunca han hablado de IA con un colega. El 58% afirma que nunca ha hablado sobre el uso de IA con un colega ni ha visto a compañeros mostrar entusiasmo por ella. Sin conversaciones entre pares, aprendizaje compartido o historias de éxito visibles, casi no existen vías informales para que la confianza o la curiosidad sobre la IA se desarrollen.
Y sin embargo, cuando se trata de cómo experimentan la IA los empleados públicos en su día a día, Francia quedó en último lugar.
El Índice de Adopción de IA en el Sector Público 2026, publicado por Public First para el Center for Data Innovation con el patrocinio de Google, encuestó a 3.335 empleados públicos en 10 países, incluidos 342 en Francia. Francia obtuvo 42 de 100 puntos, quedando en el puesto 10 de 10. Por detrás de Japón. Por detrás de Alemania. Por detrás de todos los demás países del estudio.
Para una nación que se ha posicionado como líder europeo en IA, ese resultado exige una explicación. Los datos la ofrecen, y tiene menos que ver con la tecnología que con lo que ocurre cuando la estrategia nunca llega a las personas a las que debe servir.
Las cifras detrás del último puesto de Francia
El índice mide cómo experimentan la IA los empleados públicos en cinco dimensiones: entusiasmo, formación, habilitación, empoderamiento e integración. En Francia, cada puntuación cuenta la misma historia: una plantilla que ha sido dejada atrás por la ambición de su propio gobierno:
- Entusiasmo: 46/100 — Francia es el país menos optimista del índice. Solo el 33% de los empleados públicos se siente positivo respecto a la IA en el sector público. Casi 1 de cada 3 cree que nada de lo que hace en el trabajo puede ser realizado por IA.
- Formación: 46/100 — Dos tercios (66%) de los empleados públicos declaran no haber recibido ninguna formación en IA. Más de 1 de cada 3 no tiene claro para qué puede o no puede usar la IA en el trabajo.
- Empoderamiento: 39/100 — Más de 2 de cada 5 no sabe si su lugar de trabajo siquiera tiene una política sobre el uso de IA. Más del 50% no está de acuerdo en que los líderes proporcionen comunicación o directrices claras sobre IA.
- Habilitación: 42/100 — Solo el 27% dice que su organización ha invertido en herramientas de IA. El acceso a herramientas de IA empresariales o internas es mínimo. El soporte técnico suele estar ausente.
- Integración: 36/100 — la puntuación más baja de integración de todo el índice. Las estructuras organizativas para apoyar la escalabilidad son débiles. La IA está aislada de los flujos de trabajo rutinarios en lugar de estar integrada en ellos.
El 45% de los trabajadores del sector público francés nunca ha usado IA en su función. Más de la mitad dice que el uso de IA se ha estancado o disminuido en el último año. El 58% nunca ha hablado siquiera de IA con un colega.
Estas no son las cifras de una plantilla que haya valorado la IA y la haya considerado insuficiente. Son las cifras de una plantilla a la que apenas se le ha dado la oportunidad de probarla.
El riesgo de shadow AI del que Francia no habla
Aquí está el hallazgo global del índice que los responsables de seguridad del gobierno francés deben afrontar.
En entornos de baja habilitación en todo el índice, el 64% de los trabajadores entusiastas de IA declara usar credenciales personales en el trabajo, y el 70% usa IA para tareas laborales sin que su responsable lo sepa.
La puntuación de habilitación de Francia es 42/100. Su puntuación de empoderamiento es 39/100. Solo el 27% de las organizaciones ha invertido en herramientas de IA. Más de 2 de cada 5 empleados públicos no sabe si su lugar de trabajo tiene una política sobre IA. Ese es precisamente el entorno donde la shadow AI echa raíces.
El índice señala un matiz importante para Francia: en la cultura alemana, orientada al cumplimiento, las normas poco claras tienden a desalentar el uso por completo. En Francia, el panorama es más mixto: aunque la adopción general es baja, quienes usan IA suelen hacerlo sin apoyo ni visibilidad organizacional. Casi 1 de cada 3 empleados públicos dice que su lugar de trabajo dificulta activamente el uso de IA donde sería útil, lo que apunta a una plantilla donde las personas motivadas sortean las barreras institucionales en vez de superarlas.
Piénsalo en la práctica. Empleados públicos usando cuentas personales de ChatGPT o Mistral para redactar documentos de política, resumir expedientes o analizar conjuntos de datos con información ciudadana. Datos sensibles —protegidos por el GDPR, la Ley de IA de la UE y la Loi Informatique et Libertés de Francia— que potencialmente se introducen en modelos públicos de lenguaje sin registro auditable, sin controles de clasificación de datos y sin posibilidad de determinar qué se expuso después.
La ironía es conocida en todos los países de este índice. Las organizaciones que intentan ser cautelosas con la IA restringiendo el acceso o guardando silencio sobre los permisos no están evitando el uso de IA. Lo están empujando a la clandestinidad, creando mucho más riesgo de IA que las organizaciones que proporcionan herramientas aprobadas con directrices claras de uso.
Aquí es donde la conversación debe pasar de «¿debemos permitir la IA?» a «¿cómo habilitamos la IA de forma segura?». Soluciones como gobernanza de datos de IA y la productividad con herramientas como Claude, ChatGPT y Copilot, mientras se mantiene la información sensible dentro de la red privada. Los marcos de gobernanza existentes (RBAC/ABAC) se extienden a todas las interacciones con IA, cada operación de IA se registra para cumplimiento y análisis forense, y el contenido confidencial nunca sale del entorno de confianza. Para las organizaciones gubernamentales francesas, la alineación con el GDPR, la Ley de IA de la UE y el marco nacional de privacidad de datos significa que estas protecciones se corresponden directamente con las obligaciones de cumplimiento existentes.
La alternativa —confiar en documentos estratégicos y marcos éticos mientras los empleados públicos se las arreglan por su cuenta— es lo que ha producido el último puesto.
El círculo vicioso: por qué Francia está atascada
El índice identifica un patrón auto-reforzado en Francia que no existe de la misma forma en ningún otro país del estudio.
Una integración débil limita la adopción. La baja adopción limita los beneficios visibles. La ausencia de beneficios visibles mantiene el bajo optimismo. Y el bajo optimismo elimina la presión cultural que podría impulsar a las organizaciones a invertir en herramientas, formación y orientación.
Las cifras muestran claramente este ciclo. Con solo el 27% de las organizaciones invirtiendo en herramientas de IA y una integración mínima con los sistemas existentes, la mayoría de los empleados públicos franceses nunca ha visto a la IA ahorrar tiempo, mejorar decisiones o mejorar la prestación de servicios. Su valor sigue siendo abstracto. Y cuando el valor es abstracto, no hay urgencia por actuar.
Compáralo con lo que han construido los países avanzados en adopción. En Singapur, el 73% de los empleados públicos tiene claro para qué puede y para qué no puede usar la IA, y el 58% sabe exactamente a quién preguntar cuando surge un problema. En Arabia Saudita, el 65% accede a herramientas de IA empresariales y el 79% usa IA para tareas avanzadas o técnicas. En India, el 83% es optimista respecto a la IA y el 59% quiere que cambie radicalmente su trabajo diario.
Estos países rompieron el ciclo haciendo tangible la IA: dando a los empleados públicos herramientas, formación y permiso simultáneamente, no de forma secuencial. Francia tiene la estrategia. Tiene el marco ético. Lo que no ha hecho es poner la IA delante de los empleados públicos de forma que puedan ver lo que puede lograr.
La capa que falta: gobernanza de datos de IA para el gobierno francés
El fuerte énfasis de Francia en la IA de confianza y la alineación con la Ley de IA de la UE crean una base política robusta. Pero los marcos normativos por sí solos no protegen los datos ciudadanos cuando los empleados públicos usan herramientas no aprobadas y sin supervisión.
La mayoría de las organizaciones gubernamentales francesas carecen de visibilidad sobre qué datos se comparten con sistemas de IA. ¿Qué empleados públicos usan IA y para qué? ¿Si los resultados generados por IA contienen información sensible que no debería compartirse externamente? ¿Cómo aplicar políticas de clasificación de datos cuando intervienen herramientas de IA? Para la mayoría de las organizaciones, la respuesta es «no lo sabemos».
Aquí es donde los marcos de gobernanza de datos de IA se vuelven esenciales, no como otra capa de cumplimiento, sino como la infraestructura que permite una adopción segura dentro de los requisitos de cumplimiento normativo existentes en Francia. Las capacidades de administración de postura de seguridad de datos (DSPM) pueden descubrir y clasificar datos sensibles en todos los repositorios, incluidos los datos que se introducen en sistemas de IA. La aplicación automatizada de políticas puede bloquear que datos privilegiados o confidenciales sean ingeridos por IA según las etiquetas de clasificación. Los registros de auditoría integrales pueden rastrear todas las interacciones entre IA y datos. Y cuando se alinean con el GDPR, la Ley de IA de la UE y la Loi Informatique et Libertés de Francia, estas capacidades ayudan a las organizaciones a gobernar el riesgo de IA durante todo el ciclo de vida de los datos.
El enfoque de Kiteworks ante este reto es ilustrativo. Al integrar DSPM con la aplicación automatizada de políticas y el registro inmutable de auditoría, las organizaciones pueden etiquetar los datos por nivel de sensibilidad y aplicar esas clasificaciones automáticamente cuando intervienen herramientas de IA. Cada interacción entre IA y datos se registra con ID de usuario, marca de tiempo, datos accedidos y el sistema de IA utilizado. Para Francia —donde los requisitos de cumplimiento normativo superpuestos entre la Ley de IA de la UE, el GDPR y la ley nacional aumentan la percepción de riesgo ante la experimentación— este tipo de infraestructura convierte el cumplimiento en un facilitador, no en una barrera.
Lo que necesitan los empleados públicos franceses para romper el ciclo
Los datos de todo el índice son coherentes: los empleados públicos no piden grandes programas nuevos ni presupuestos enormes. Piden claridad, usabilidad y confianza.
En Alemania —el país más cercano a Francia en el grupo de adoptantes cautelosos— los empleados públicos citan la garantía de privacidad de datos (38%) y la orientación clara sobre cómo aplicar la IA (37%) como los factores principales que impulsarían un mayor uso. El patrón se repite en todos los países: orientación clara, herramientas más fáciles de usar y garantía de seguridad de los datos ocupan sistemáticamente los tres primeros puestos como facilitadores. El presupuesto dedicado queda en último lugar.
En Francia, el índice señala una brecha aún más fundamental: la relevancia. Muchos empleados públicos no ven cómo la IA se aplica a su función. El 31% cree que nada de lo que hace en el trabajo puede ser realizado por IA. El 44% dice que solo una pequeña parte de su trabajo podría beneficiarse. Una formación rápida y práctica centrada en casos de uso concretos —redacción, análisis, gestión de expedientes, prestación de servicios— es esencial para cerrar esta brecha de percepción antes de que el escepticismo se convierta en desvinculación permanente.
Por qué la integración importa más que cualquier otra cosa
Francia obtuvo 36/100 en integración, la puntuación más baja de cualquier país en cualquier dimensión de todo el índice. Y los datos globales muestran por qué esa es la métrica más relevante.
En todos los países, el 61% de los trabajadores en entornos de alta integración reporta beneficios al usar IA para tareas avanzadas o técnicas, frente a solo el 17% donde la integración es baja. La integración también iguala el terreno entre grupos de edad: en entornos de alta integración, el 58% de los empleados públicos de 55 años o más afirma ahorrar más de una hora usando IA, frente a solo el 16% en entornos de baja integración.
Francia está en el extremo más bajo de este espectro. Hasta que la IA se integre en los sistemas y flujos de trabajo que los empleados públicos ya utilizan, la promesa de productividad de la estrategia de IA de Francia seguirá siendo teórica, y el círculo vicioso de baja adopción, baja visibilidad y bajo optimismo continuará sin cambios.
Tres prioridades que podrían sacar a Francia del último puesto
El índice señala tres acciones que podrían empezar a revertir la trayectoria de Francia si se abordan conjuntamente y con urgencia.
Primero, actuar rápido para dar permiso claro y proporcionar infraestructura segura. Los empleados públicos necesitan señales inequívocas —ya— de que el uso de IA es esperado, respaldado y seguro. La ambigüedad continua refuerza la duda y la desvinculación. Los líderes deben dejar claro que la IA puede y debe usarse para tareas cotidianas y de bajo riesgo, apoyados por una orientación sencilla que elimine el miedo al incumplimiento. Pero el permiso sin protección genera riesgo. Las organizaciones deben implementar soluciones empresariales de IA con controles de protección de datos de IA, marcos de gobernanza y registros de auditoría integrales. Plataformas como Kiteworks’ Secure MCP Server demuestran cómo funciona esto en la práctica: habilitando la productividad con IA en herramientas como Claude, ChatGPT y Copilot, mientras se mantienen los controles de gobernanza de datos de IA que exigen las organizaciones gubernamentales francesas bajo el GDPR, la Ley de IA de la UE y la ley nacional.
Segundo, conectar rápidamente la IA con trabajos y tareas reales, con preparación para respuesta a incidentes integrada. El problema central en Francia es la relevancia. Muchos empleados públicos no ven cómo la IA se aplica a su función. Una formación rápida y práctica centrada en casos de uso concretos —redacción, análisis, gestión de expedientes, prestación de servicios— es esencial. Si la IA no demuestra rápidamente que ahorra tiempo o mejora resultados, el escepticismo se consolidará. Al mismo tiempo, las organizaciones necesitan capacidades de respuesta a incidentes para escenarios específicos de IA. Imagina que un empleado público pega por error miles de registros de ciudadanos en una herramienta de IA pública. ¿Puede la organización responder qué se expuso, cuándo, por quién y qué otros datos se han compartido? Sin registros de auditoría inmutables, integración con SIEM y documentación de cadena de custodia, la respuesta es no.
Tercero, reconstruir activamente la cultura laboral en torno a la IA. La baja discusión y la baja visibilidad refuerzan la desvinculación. El 58% de los empleados públicos franceses nunca ha hablado de IA con un colega. Los líderes deben crear espacios para la experimentación, el aprendizaje compartido y las historias de éxito visibles que demuestren la IA funcionando en la práctica. Sandboxes gobernados, concursos internos y redes de aprendizaje peer-to-peer pueden empezar a generar el impulso cultural que Francia necesita. Sin un cambio cultural urgente, incluso los marcos normativos sólidos no se traducirán en adopción, como ya ha demostrado el índice.
Lo que está en juego es más que una clasificación
Que Francia termine última en este índice es más que una vergüenza: es una advertencia. Cada día que los empleados públicos carecen de herramientas de IA seguras y aprobadas es otro día en que los datos ciudadanos circulan por cuentas personales sin supervisión. Cada semana sin orientación clara es otra semana en que la brecha entre la ambición de IA de Francia y la realidad del sector público se amplía. Cada mes sin gobernanza de datos de IA integrada es otro mes en que el círculo vicioso de baja adopción y bajo optimismo se afianza aún más.
La shadow AI no necesita una alta adopción para crear riesgo. Solo necesita a unas pocas personas motivadas sorteando barreras institucionales con datos sensibles y sin salvaguardas. En Francia, donde 1 de cada 3 empleados públicos dice que su lugar de trabajo dificulta activamente el uso de IA donde sería útil, esas condiciones ya existen.
Los 342 empleados públicos franceses encuestados en este índice envían un mensaje claro: danos la orientación, danos las herramientas y demuéstranos que la IA es relevante para el trabajo que hacemos cada día. La pregunta es si los líderes del gobierno francés están dispuestos a igualar su estrategia de IA de primer nivel con la ejecución en la primera línea que exige, antes de que el último puesto se convierta en permanente.
Preguntas frecuentes
El Índice de Adopción de IA en el Sector Público 2026 es un estudio global realizado por Public First para el Center for Data Innovation, patrocinado por Google. Encuestó a 3.335 empleados públicos en 10 países —incluidos 342 en Francia— para medir cómo se experimenta la IA en los entornos gubernamentales. El índice puntúa a los países en cinco dimensiones: entusiasmo, formación, empoderamiento, habilitación e integración, cada una en una escala de 0 a 100. Va más allá de medir si los gobiernos tienen estrategias de IA y examina si los empleados públicos cuentan con las herramientas, la formación, los permisos y la infraestructura para usar la IA de forma eficaz en su trabajo diario.
Francia ocupa el último lugar —10 de 10 países— con una puntuación total de 42 sobre 100. Obtiene la puntuación más baja en integración (36/100) y empoderamiento (39/100), lo que refleja una integración mínima de la IA en los flujos de trabajo diarios y una gobernanza poco clara sobre su uso. Francia queda por detrás de todos los países del índice, incluidos Alemania (44), Japón (43), EE. UU. (45), Reino Unido (47) y los adoptantes avanzados como Arabia Saudita (66), Singapur (58) e India (58). El índice clasifica a Francia como un «adoptante cauteloso»: un país con una estrategia nacional sólida y marcos éticos, pero que no logra traducirlos en un uso cotidiano y seguro de la IA por parte de los empleados públicos en la primera línea.
Los datos del índice apuntan a una brecha de ejecución, no de estrategia. Francia ha invertido mucho en investigación de IA, talento y marcos normativos desde 2018, y su marco de «IA de confianza» está estrechamente alineado con los requisitos de la Ley de IA de la UE. Sin embargo, esto no se ha traducido en la práctica diaria. El 45% de los empleados públicos nunca ha usado IA en el trabajo. El 66% no ha recibido formación. Solo el 27% dice que su organización ha invertido en herramientas de IA. Más del 50% afirma que los líderes no proporcionan directrices claras sobre IA. El resultado es un ciclo auto-reforzado: una integración débil limita la adopción, la baja adopción limita los beneficios visibles y la ausencia de beneficios mantiene el bajo optimismo, con Francia registrando el menor optimismo de todos los países, solo un 33%.
La shadow AI se refiere a empleados públicos que usan herramientas de IA no aprobadas —a menudo cuentas personales de servicios como ChatGPT— para tareas laborales sin conocimiento ni supervisión de su organización. El índice encontró que, en entornos de baja habilitación a nivel global, el 64% de los usuarios entusiastas de IA recurren a credenciales personales en el trabajo y el 70% usa IA sin que su responsable lo sepa. Las bajas puntuaciones de habilitación (42/100) y empoderamiento (39/100) de Francia, junto con 1 de cada 3 empleados públicos que afirma que su lugar de trabajo dificulta activamente el uso de IA, crean condiciones en las que las personas motivadas sortean las barreras institucionales. Esto pone en riesgo los datos ciudadanos bajo el GDPR, la Ley de IA de la UE y la Loi Informatique et Libertés de Francia, sin registro auditable ni capacidad forense para evaluar la exposición.
Los datos del índice sugieren que las organizaciones deben pasar de restringir el acceso a la IA a habilitarlo de forma segura. Esto implica implementar herramientas empresariales de IA aprobadas con controles integrados de gobernanza de datos de IA, como plataformas que mantienen los datos sensibles dentro de la red privada mientras permiten la productividad con asistentes de IA como Claude, ChatGPT y Copilot. Las organizaciones deben aplicar administración de postura de seguridad de datos (DSPM) para clasificar datos sensibles y aplicar políticas automáticamente, mantener registros de auditoría inmutables de todas las interacciones entre IA y datos, y establecer capacidades de respuesta a incidentes específicas para escenarios de exposición de datos con IA. Soluciones como Kiteworks’ Secure MCP Server, alineadas con el GDPR, la Ley de IA de la UE y la Loi Informatique et Libertés de Francia, demuestran cómo las organizaciones pueden habilitar la productividad con IA sin sacrificar la seguridad de los datos ni el cumplimiento.
Arabia Saudita (66/100), Singapur (58/100) e India (58/100) son los países mejor clasificados. Cada uno tomó un camino diferente, pero comparten elementos comunes: reglas claras sobre para qué pueden y no pueden usar IA los empleados públicos, herramientas aprobadas y seguras proporcionadas por la organización, y un liderazgo visible que presenta la IA como modernización y no como riesgo. Lo fundamental es que estos países hicieron tangible la IA, dando a los empleados públicos herramientas, formación y permiso al mismo tiempo, rompiendo el ciclo de baja visibilidad y bajo optimismo que ha atrapado a Francia. Francia tiene una ambición estratégica comparable y marcos éticos incluso más sólidos que la mayoría, pero aún no ha igualado esto con acceso a herramientas en la primera línea, permisos claros y formación práctica como sí han hecho los adoptantes avanzados.