La crise de l’adoption de l’IA dans le secteur public français : la dernière place révélée

La France a presque tout fait correctement sur le papier. Une stratégie nationale pour l’IA depuis 2018. Des milliards investis via France 2030. Des instituts de recherche de renommée mondiale. Un cadre de « confiance dans l’IA » aligné sur l’AI Act européen. Un engagement affiché en faveur de la souveraineté technologique et de la modernisation du service public.

Points clés à retenir

  1. La France arrive bonne dernière en matière d’adoption de l’IA dans le secteur public — malgré un démarrage précoce. La France n’obtient que 42 sur 100 à l’Indice d’adoption de l’IA dans le secteur public, se classant 10e sur 10 pays étudiés. Et ce, malgré le lancement de sa stratégie nationale pour l’IA en 2018, d’importants investissements via France 2030 et la création de l’un des écosystèmes de recherche en IA les plus solides d’Europe. La stratégie ne s’est pas traduite en actions concrètes sur le terrain.
  2. Près de la moitié des agents publics français n’ont jamais utilisé l’IA au travail. Environ 45 % des agents du secteur public déclarent n’avoir jamais utilisé d’outils d’IA dans leur fonction — c’est le taux d’adoption le plus faible de tout l’indice. Plus de la moitié affirment que l’utilisation de l’IA a stagné ou reculé au cours de l’année écoulée, ce qui traduit non seulement de la prudence, mais aussi un désengagement.
  3. Deux tiers des agents publics français n’ont reçu aucune formation à l’IA. 66 % déclarent n’avoir reçu aucune formation à l’utilisation de l’IA. Plus d’un sur trois ne sait pas clairement ce qu’il peut ou non faire avec l’IA dans son travail. Sans formation ni accompagnement, même les agents volontaires n’ont pas de point d’entrée pour adopter l’IA — et les risques liés à l’IA non encadrée augmentent.
  4. La France est piégée dans un cercle vicieux d’adoption faible. Un faible ancrage limite l’adoption. Une adoption faible limite les bénéfices visibles. L’absence de bénéfices entretient un faible optimisme. La France est le pays le moins optimiste de l’indice, avec seulement 33 % des agents publics ayant une vision positive de l’IA dans le secteur public. Près d’un sur trois estime qu’aucune de ses tâches ne peut être réalisée par l’IA.
  5. Près de 6 agents publics français sur 10 n’ont même jamais parlé d’IA avec un collègue. 58 % déclarent n’avoir jamais discuté de l’utilisation de l’IA avec un collègue ou vu un collègue s’enthousiasmer pour l’IA. Sans échanges entre pairs, apprentissages partagés ou exemples de réussite, il n’existe quasiment aucun levier informel pour développer la confiance ou la curiosité autour de l’IA.

Et pourtant, lorsqu’il s’agit de l’expérience concrète des agents publics avec l’IA au quotidien, la France termine dernière.

L’Indice d’adoption de l’IA dans le secteur public 2026, publié par Public First pour le Center for Data Innovation avec le soutien de Google, a interrogé 3 335 agents publics dans 10 pays — dont 342 en France. La France obtient un score de 42 sur 100, soit la 10e place sur 10. Derrière le Japon. Derrière l’Allemagne. Derrière tous les autres pays de l’étude.

Pour une nation qui s’est positionnée comme leader européen de l’IA, ce résultat mérite explication. Les données en apportent une — et elle tient moins à la technologie qu’à ce qui se passe lorsque la stratégie ne touche jamais les personnes qu’elle est censée servir.

Les chiffres derrière la dernière place de la France

L’indice mesure l’expérience de l’IA par les agents publics selon cinq dimensions : enthousiasme, formation, moyens, responsabilisation et intégration. Pour la France, chaque score raconte la même histoire — une main-d’œuvre laissée de côté par l’ambition de son propre gouvernement :

  • Enthousiasme : 46/100 — La France est le pays le moins optimiste de l’indice. Seuls 33 % des agents publics ont une vision positive de l’IA dans le secteur public. Près d’un sur trois estime qu’aucune de ses tâches ne peut être réalisée par l’IA.
  • Formation : 46/100 — Deux tiers (66 %) des agents publics déclarent n’avoir reçu aucune formation à l’IA. Plus d’un sur trois ne sait pas clairement ce qu’il peut ou non faire avec l’IA dans son travail.
  • Responsabilisation : 39/100 — Plus de 2 sur 5 ne savent même pas si leur organisation dispose d’une politique encadrant l’usage de l’IA. Plus de 50 % estiment que les dirigeants ne donnent pas de directives claires sur l’IA.
  • Moyens : 42/100 — Seuls 27 % déclarent que leur organisation a investi dans des outils d’IA. L’accès à des outils d’IA d’entreprise ou développés en interne est très limité. Le support technique est souvent absent.
  • Intégration : 36/100 — le score d’intégration le plus bas de tout l’indice. Les structures organisationnelles pour accompagner la montée en puissance sont faibles. L’IA reste isolée des processus quotidiens au lieu d’y être intégrée.

45 % des agents publics français n’ont jamais utilisé l’IA dans leur fonction. Plus de la moitié affirment que l’utilisation de l’IA a stagné ou reculé au cours de l’année écoulée. 58 % n’en ont même jamais discuté avec un collègue.

Ce ne sont pas les chiffres d’une main-d’œuvre qui aurait testé l’IA et l’aurait rejetée. Ce sont ceux d’une main-d’œuvre à qui on n’a presque pas donné la possibilité d’essayer.

Le risque « shadow AI » dont la France ne parle pas

Voici le constat mondial issu de l’indice auquel les responsables de la sécurité du secteur public français doivent s’attaquer.

Dans les environnements peu outillés de l’indice, 64 % des agents enthousiastes à l’égard de l’IA déclarent utiliser des identifiants personnels au travail, et 70 % utilisent l’IA pour des tâches professionnelles sans que leur responsable ne le sache.

La France affiche un score de moyens de 42/100. Son score de responsabilisation est de 39/100. Seules 27 % des organisations ont investi dans des outils d’IA. Plus de 2 agents sur 5 ignorent si leur organisation dispose d’une politique sur l’IA. C’est précisément dans ce contexte que la shadow AI se développe.

L’indice relève une nuance importante pour la France : en Allemagne, la culture de la conformité décourage l’utilisation de l’IA en cas de règles floues. En France, la situation est plus contrastée — si l’adoption globale reste faible, ceux qui utilisent l’IA le font souvent sans accompagnement ni visibilité organisationnelle. Près d’un agent public sur trois affirme que son organisation rend l’utilisation de l’IA difficile là où elle serait utile, ce qui traduit une tendance à contourner les obstacles institutionnels plutôt qu’à les résoudre.

Concrètement, cela signifie que des agents publics utilisent des comptes personnels ChatGPT ou Mistral pour rédiger des notes, résumer des dossiers ou analyser des jeux de données contenant des informations sur les citoyens. Des données sensibles — protégées par le RGPD, l’AI Act européen et la Loi Informatique et Libertés — risquent d’être transmises à des grands modèles de langage publics, sans journal d’audit, sans contrôle de classification des données, et sans possibilité de savoir ce qui a été exposé après coup.

L’ironie est la même dans tous les pays de l’indice. Les organisations qui cherchent à limiter l’IA en restreignant l’accès ou en restant silencieuses sur les autorisations ne freinent pas l’usage de l’IA. Elles le déplacent dans l’ombre — créant ainsi bien plus de risques que celles qui proposent des outils validés et des consignes claires.

C’est là que le débat doit passer de « doit-on autoriser l’IA » à « comment permettre l’IA en toute sécurité ». Des solutions comme gouvernance des données IA et la productivité avec des outils comme Claude, ChatGPT et Copilot, tout en gardant les données sensibles dans le réseau privé. Les cadres de gouvernance existants (RBAC/ABAC) s’appliquent à toutes les interactions IA, chaque opération IA est consignée pour la conformité et la traçabilité, et les contenus sensibles ne quittent jamais l’environnement de confiance. Pour les organisations publiques françaises, l’alignement avec le RGPD, l’AI Act européen et le cadre national de protection des données signifie que ces protections répondent directement aux obligations de conformité existantes.

L’alternative — se reposer sur des documents stratégiques et des chartes éthiques pendant que les agents publics improvisent — explique la dernière place obtenue.

Le cercle vicieux : pourquoi la France est bloquée

L’indice met en évidence un schéma auto-entretenu propre à la France, absent ailleurs dans l’étude.

Une intégration faible limite l’adoption. Une adoption faible limite les bénéfices visibles. L’absence de bénéfices entretient un faible optimisme. Et un faible optimisme supprime la pression culturelle qui pourrait pousser les organisations à investir dans des outils, des formations et des consignes.

Les chiffres illustrent clairement ce cycle. Avec seulement 27 % des organisations investissant dans des outils d’IA et une intégration minimale aux systèmes existants, la plupart des agents publics français n’ont jamais vu l’IA leur faire gagner du temps, améliorer leurs décisions ou la qualité du service. Sa valeur reste abstraite. Et tant que la valeur perçue reste abstraite, il n’y a aucune urgence à agir.

Comparez avec ce qu’ont mis en place les pays les plus avancés. À Singapour, 73 % des agents publics savent clairement ce qu’ils peuvent ou non faire avec l’IA, et 58 % savent exactement à qui s’adresser en cas de problème. En Arabie saoudite, 65 % ont accès à des outils d’IA d’entreprise et 79 % utilisent l’IA pour des tâches avancées ou techniques. En Inde, 83 % sont optimistes vis-à-vis de l’IA et 59 % souhaitent qu’elle transforme radicalement leur quotidien.

Ces pays ont brisé le cercle en rendant l’IA concrète — en donnant aux agents publics des outils, des formations et des autorisations simultanément, et non successivement. La France a la stratégie. Elle a le cadre éthique. Ce qu’elle n’a pas fait, c’est mettre l’IA entre les mains des agents publics pour leur montrer ce qu’elle permet réellement.

Le maillon manquant : la gouvernance des données IA pour l’État français

L’accent mis par la France sur l’IA de confiance et l’alignement avec l’AI Act européen posent des bases réglementaires solides. Mais les cadres politiques seuls ne protègent pas les données des citoyens si les agents publics utilisent des outils non validés sans supervision.

La plupart des organisations publiques françaises n’ont aucune visibilité sur les données partagées avec les systèmes d’IA. Quels agents utilisent l’IA, et dans quel but ? Les productions générées par l’IA contiennent-elles des informations sensibles à ne pas diffuser à l’externe ? Comment appliquer des règles de classification des données lorsque des outils d’IA sont utilisés ? Pour la plupart, la réponse est « nous ne savons pas ».

C’est là que les cadres de gouvernance des données IA deviennent fondamentaux — non comme une couche de conformité supplémentaire, mais comme l’infrastructure qui rend possible une adoption en confiance dans le respect des obligations réglementaires existantes. Les fonctions de gestion de la posture de sécurité des données (DSPM) permettent d’identifier et de classifier les données sensibles dans tous les référentiels, y compris celles transmises aux systèmes d’IA. L’application automatique des règles peut bloquer l’ingestion de données privilégiées ou confidentielles par l’IA selon leur classification. Des journaux d’audit détaillés permettent de tracer toutes les interactions entre l’IA et les données. Et, en cohérence avec le RGPD, l’AI Act européen et la Loi Informatique et Libertés, ces fonctions aident les organisations à maîtriser le risque IA tout au long du cycle de vie des données.

L’approche de Kiteworks face à ce défi est éclairante. En intégrant DSPM, application automatique des règles et journalisation d’audit immuable, les organisations peuvent taguer les données selon leur niveau de sensibilité et appliquer ces classifications automatiquement dès qu’un outil d’IA intervient. Chaque interaction IA-donnée est enregistrée avec l’ID utilisateur, l’horodatage, les données consultées et le système IA utilisé. Pour la France — où la superposition des exigences réglementaires entre l’AI Act européen, le RGPD et la loi nationale accroît la perception du risque d’expérimentation — ce type d’infrastructure transforme la conformité d’un frein en levier.

Ce dont les agents publics français ont besoin pour sortir du cycle

Les données de l’indice sont claires : les agents publics ne réclament pas de grands programmes ou de budgets massifs. Ils demandent de la clarté, de la simplicité et de la confiance.

En Allemagne — pays le plus proche de la France dans la catégorie des adopteurs prudents — les agents publics citent l’assurance de la protection des données (38 %) et des consignes claires sur l’utilisation de l’IA (37 %) comme principaux leviers d’adoption. On retrouve ce schéma partout : des consignes claires, des outils plus simples à utiliser et la garantie de la sécurité des données figurent toujours dans le trio de tête. Le budget dédié arrive en dernier.

En France, l’indice pointe un écart encore plus fondamental : la pertinence. Beaucoup d’agents publics ne voient pas en quoi l’IA s’applique à leur métier. 31 % estiment qu’aucune de leurs tâches ne peut être réalisée par l’IA. 44 % pensent qu’une petite partie seulement de leur travail pourrait en bénéficier. Une formation rapide et concrète, axée sur des cas d’usage réels — rédaction, analyse, gestion de dossiers, délivrance de services — est essentielle pour combler ce déficit de perception avant que le scepticisme ne s’installe durablement.

Pourquoi l’intégration compte plus que tout

La France obtient 36/100 sur l’intégration — le score le plus bas de tous les pays et de toutes les dimensions de l’indice. Et les données mondiales expliquent pourquoi ce critère est décisif.

Dans tous les pays, 61 % des agents travaillant dans des environnements à forte intégration déclarent bénéficier de l’IA pour des tâches avancées ou techniques, contre seulement 17 % là où l’intégration est faible. L’intégration gomme aussi les différences d’âge : dans les environnements à forte intégration, 58 % des agents publics de 55 ans et plus gagnent plus d’une heure grâce à l’IA, contre seulement 16 % dans les contextes faiblement intégrés.

La France se situe à l’extrémité basse de ce spectre. Tant que l’IA ne sera pas intégrée dans les systèmes et processus quotidiens des agents publics, la promesse de productivité de la stratégie IA restera purement théorique — et le cercle vicieux de l’adoption faible, de la faible visibilité et du faible optimisme perdurera.

Trois priorités pour sortir la France de la dernière place

L’indice met en avant trois actions à mener simultanément — et rapidement — pour inverser la tendance.

Premièrement, lever toute ambiguïté sur les autorisations et fournir une infrastructure sécurisée. Les agents publics ont besoin de signaux clairs — dès maintenant — indiquant que l’usage de l’IA est attendu, soutenu et sécurisé. L’ambiguïté persistante renforce l’hésitation et le désengagement. Les dirigeants doivent affirmer clairement que l’IA peut et doit être utilisée pour les tâches courantes à faible risque, avec des consignes simples qui lèvent la crainte de la non-conformité. Mais l’autorisation sans protection crée des risques. Les organisations doivent déployer des solutions d’IA d’entreprise dotées de contrôles de protection des données IA, de cadres de gouvernance et de journaux d’audit complets. Des plateformes comme Kiteworks’ Secure MCP Server montrent concrètement comment cela fonctionne : permettre la productivité IA avec des outils comme Claude, ChatGPT et Copilot, tout en maintenant les contrôles de gouvernance des données IA exigés par le RGPD, l’AI Act européen et la loi nationale.

Deuxièmement, relier rapidement l’IA à des missions concrètes — avec une capacité de réponse aux incidents intégrée. Le problème central en France est la pertinence. Beaucoup d’agents publics ne voient pas l’intérêt de l’IA pour leur métier. Une formation rapide et pratique, axée sur des cas d’usage concrets — rédaction, analyse, gestion de dossiers, délivrance de services — est essentielle. Si l’IA ne démontre pas rapidement des gains de temps ou de performance, le scepticisme s’installera. Parallèlement, les organisations doivent se doter de capacités de réponse aux incidents pour les scénarios propres à l’IA. Imaginez un agent public copiant par erreur des milliers de dossiers citoyens dans un outil d’IA public. L’organisation saura-t-elle ce qui a été exposé, quand, par qui, et quelles autres données ont été partagées ? Sans journaux d’audit immuables, intégration SIEM et documentation de la chaîne de traçabilité, la réponse est non.

Troisièmement, reconstruire activement la culture du travail autour de l’IA. Le manque d’échanges et de visibilité entretient le désengagement. 58 % des agents publics français n’ont jamais parlé d’IA avec un collègue. Les dirigeants doivent créer un espace pour l’expérimentation, l’apprentissage partagé et des exemples concrets de réussite. Des bacs à sable encadrés, des concours internes et des réseaux d’apprentissage entre pairs peuvent amorcer la dynamique culturelle qui fait aujourd’hui défaut à la France. Sans changement culturel rapide, même les meilleurs cadres politiques ne permettront pas l’adoption — comme l’indice vient de le démontrer.

L’enjeu dépasse le classement

La dernière place de la France dans cet indice est plus qu’une source d’embarras — c’est un avertissement. Chaque jour sans outils d’IA sécurisés et validés, ce sont des données citoyennes qui transitent par des comptes personnels sans contrôle. Chaque semaine sans consignes claires creuse le fossé entre l’ambition IA de la France et la réalité du secteur public. Chaque mois sans gouvernance intégrée des données IA renforce le cercle vicieux de l’adoption faible et du faible optimisme.

La shadow AI n’a pas besoin d’une adoption massive pour créer des risques. Il suffit de quelques agents motivés contournant les obstacles institutionnels avec des données sensibles et sans garde-fous. En France — où un agent public sur trois affirme que son organisation rend difficile l’utilisation de l’IA là où elle serait utile — ces conditions sont réunies.

Les 342 agents publics français interrogés dans cet indice lancent un message clair : donnez-nous des consignes, donnez-nous des outils, montrez-nous que l’IA est utile à notre travail quotidien. La question est de savoir si les décideurs publics français sont prêts à transformer leur stratégie IA de haut niveau en actions concrètes sur le terrain — avant que la dernière place ne devienne définitive.

Foire aux questions

L’Indice d’adoption de l’IA dans le secteur public 2026 est une étude mondiale menée par Public First pour le Center for Data Innovation, avec le soutien de Google. Elle a interrogé 3 335 agents publics dans 10 pays — dont 342 en France — pour mesurer l’expérience de l’IA dans les administrations. L’indice évalue les pays selon cinq dimensions : enthousiasme, formation, responsabilisation, moyens et intégration, chacune notée de 0 à 100. Il va au-delà de la simple existence d’une stratégie IA et analyse si les agents publics disposent des outils, de la formation, des autorisations et de l’infrastructure nécessaires pour utiliser l’IA efficacement au quotidien.

La France arrive dernière — 10e sur 10 pays — avec un score global de 42 sur 100. Elle obtient les scores les plus faibles sur l’intégration (36/100) et la responsabilisation (39/100), ce qui traduit une intégration minimale de l’IA dans les processus quotidiens et un manque de gouvernance claire. La France est derrière tous les autres pays de l’indice, y compris l’Allemagne (44), le Japon (43), les États-Unis (45), le Royaume-Uni (47) et les pays les plus avancés comme l’Arabie saoudite (66), Singapour (58) et l’Inde (58). L’indice classe la France comme un « adopteur prudent » — un pays doté d’une stratégie nationale forte et de cadres éthiques, mais qui ne parvient pas à traduire cela en une utilisation quotidienne et confiante de l’IA par les agents publics de terrain.

Les données de l’indice pointent un déficit d’exécution plutôt qu’un déficit de stratégie. La France a beaucoup investi dans la recherche, les talents et les cadres réglementaires pour l’IA depuis 2018, et son cadre de « confiance dans l’IA » est étroitement aligné sur les exigences de l’AI Act européen. Pourtant, cela ne s’est pas traduit sur le terrain. 45 % des agents publics n’ont jamais utilisé l’IA au travail. 66 % n’ont reçu aucune formation. Seuls 27 % déclarent que leur organisation a investi dans des outils d’IA. Plus de 50 % estiment que les dirigeants ne donnent pas de directives claires sur l’IA. Il en résulte un cercle vicieux : une intégration faible limite l’adoption, une adoption faible limite les bénéfices visibles, et l’absence de bénéfices entretient un faible optimisme — la France affichant le taux d’optimisme le plus bas de tous les pays, à seulement 33 %.

La shadow AI désigne l’utilisation par les agents publics d’outils d’IA non validés — souvent des comptes personnels sur des services comme ChatGPT — pour des tâches professionnelles sans que leur organisation n’en ait connaissance ou contrôle. L’indice révèle que dans les environnements peu outillés, 64 % des utilisateurs enthousiastes de l’IA se servent d’identifiants personnels au travail et 70 % utilisent l’IA sans que leur responsable ne le sache. Les faibles scores de la France en matière de moyens (42/100) et de responsabilisation (39/100), combinés au fait qu’un agent public sur trois affirme que son organisation rend difficile l’utilisation de l’IA, créent des conditions où des agents motivés contournent les obstacles institutionnels. Cela met en danger les données citoyennes au regard du RGPD, de l’AI Act européen et de la Loi Informatique et Libertés, sans journal d’audit ni capacité d’analyse a posteriori.

Les données de l’indice suggèrent de passer d’une logique de restriction de l’accès à l’IA à une logique de sécurisation de son usage. Cela suppose de déployer des outils d’IA d’entreprise validés, intégrant des contrôles de gouvernance des données IA, comme des plateformes qui gardent les données sensibles dans le réseau privé tout en permettant la productivité avec des assistants IA tels que Claude, ChatGPT et Copilot. Les organisations doivent mettre en place une gestion de la posture de sécurité des données (DSPM) pour classifier les données sensibles et appliquer automatiquement les règles, conserver des journaux d’audit immuables pour toutes les interactions IA-données, et prévoir des capacités de réponse aux incidents spécifiques à l’exposition de données via l’IA. Des solutions comme Kiteworks’ Secure MCP Server, alignées avec le RGPD, l’AI Act européen et la Loi Informatique et Libertés, montrent comment permettre la productivité IA sans sacrifier la sécurité des données ni la conformité.

L’Arabie saoudite (66/100), Singapour (58/100) et l’Inde (58/100) occupent les premières places. Chacun a suivi une trajectoire différente, mais tous partagent des points communs : des règles claires sur ce que les agents publics peuvent ou non faire avec l’IA, des outils validés et sécurisés fournis par l’organisation, et un soutien visible de la direction qui positionne l’IA comme un levier de modernisation plutôt qu’un risque. Surtout, ces pays ont rendu l’IA concrète en donnant aux agents publics outils, formation et autorisation en même temps — brisant ainsi le cercle de la faible visibilité et du faible optimisme qui piège la France. La France affiche une ambition stratégique comparable et des cadres éthiques plus solides que la plupart, mais n’a pas encore mis à disposition des agents de terrain l’accès aux outils, les autorisations claires et la formation pratique qui font la différence chez les pays les plus avancés.

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks