Les risques liés au Shadow AI dans le secteur public : comment résoudre cette crise invisible
Les États-Unis abritent l’écosystème d’IA le plus avancé au monde. Les entreprises américaines développent les modèles de pointe. Les chercheurs américains publient les études majeures. Le capital-risque américain finance la nouvelle génération de start-ups en IA.
Pourtant, lorsqu’il s’agit d’intégrer l’IA dans le secteur public, les États-Unis se font distancer par des pays qu’ils devraient devancer.
Résumé des points clés
- L’ombre de l’IA représente déjà un risque de sécurité à l’échelle de l’administration. Dans les agences qui n’ont pas fourni d’outils d’IA approuvés, 64 % des agents publics utilisent des identifiants personnels au travail et 70 % recourent à l’IA sans que leur responsable ne le sache. Les données gouvernementales — y compris les informations personnelles identifiables (PII), les dossiers fiscaux et les fichiers des forces de l’ordre — transitent par des outils d’IA grand public non validés, sans traçabilité, ni supervision, ni capacité de réponse en cas d’incident.
- Les États-Unis se classent 7e sur 10 pays malgré leur avance mondiale en IA. Les États-Unis n’obtiennent que 45 sur 100 à l’Indice d’adoption de l’IA dans le secteur public, derrière l’Afrique du Sud et le Brésil. Le problème ne vient pas de la technologie, mais de la gouvernance, de l’absence de directives claires et d’une infrastructure sécurisée qui donnerait confiance aux agents publics pour utiliser l’IA dans leur quotidien.
- Restreindre l’accès à l’IA crée plus de risques que de l’activer de façon sécurisée. Les organisations qui adoptent une approche « prudente » en limitant l’accès à l’IA ne freinent pas son usage — elles le rendent clandestin. Les données de l’indice montrent que seule une activation sécurisée, avec des outils approuvés, des contrôles de gouvernance des données et une journalisation complète des activités, permet de réduire les risques tout en libérant des gains de productivité.
- L’intégration de l’IA dans les processus de travail permet de générer une réelle valeur ajoutée. Les États-Unis n’obtiennent que 39 sur 100 sur ce critère — le plus faible des cinq dimensions de l’indice. C’est important, car 61 % des agents publics dans des environnements à forte intégration déclarent bénéficier de l’IA avancée, contre seulement 17 % là où l’intégration est faible. Lorsque l’IA s’intègre aux outils déjà utilisés, les gains de productivité profitent à tous les âges et à tous les niveaux de compétence.
- Les agents publics ne demandent pas plus de budget — ils réclament de la clarté et de la sécurité. Interrogés sur ce qui favoriserait l’usage de l’IA, les agents publics américains placent en tête des priorités des directives claires (38 %), des outils plus simples à utiliser (36 %) et la garantie de la confidentialité des données (34 %). Le budget dédié arrive en dernier (12 %). Les obstacles à l’adoption peuvent être levés par des politiques, une communication adaptée et des achats intelligents — pas par des dépenses massives.
L’Indice d’adoption de l’IA dans le secteur public 2026, publié récemment par Public First pour le Center for Data Innovation avec le soutien de Google, a interrogé 3 335 agents publics dans 10 pays — dont 301 aux États-Unis. Les États-Unis se classent septièmes sur dix, avec un score de 45 sur 100. Ils se situent derrière l’Afrique du Sud et le Brésil, et loin derrière les pays les plus avancés comme Singapour (58), l’Arabie saoudite (66) et l’Inde (58).
Ce n’est pas un problème technologique. C’est un problème de gouvernance, de sécurité et de leadership — qui crée un risque massif d’IA fantôme que la plupart des responsables IT du secteur public ignorent.
Les chiffres qui devraient inquiéter tous les RSSI du secteur public
L’indice mesure l’expérience de l’IA par les agents publics selon cinq dimensions : enthousiasme, formation, activation, autonomisation et intégration. Pour les États-Unis, les scores dressent le portrait d’une main-d’œuvre qui a accès à l’IA mais qui n’a pas reçu la confiance, la clarté ou l’infrastructure sécurisée pour l’utiliser efficacement :
- Enthousiasme : 43/100 — l’un des scores les plus bas au monde. Quarante pour cent des agents publics américains jugent l’IA « déconcertante ».
- Formation : 50/100 — des formations existent mais restent basiques et inégalement réparties selon les organisations.
- Autonomisation : 46/100 — plus d’un tiers des agents publics ignorent si leur organisation dispose d’une politique IA formelle.
- Activation : 45/100 — les outils sont disponibles, mais « accès » ne rime pas avec « sécurité » ou « conformité ».
- Intégration : 39/100 — le score le plus faible des cinq. Les outils d’IA cohabitent avec les systèmes existants au lieu d’être intégrés dans les processus de travail.
Près de la moitié des agents publics américains (45 %) estiment que leur organisation devrait « avancer prudemment pour éviter les erreurs ». Moins de la moitié se sentent guidés clairement par leur hiérarchie sur l’usage de l’IA. Seuls 56 % se disent confiants dans l’utilisation des outils d’IA.
Ces chiffres ne traduisent pas une résistance à l’IA, mais l’attente d’un signal de sécurité pour avancer.
L’IA fantôme, une bombe à retardement
Voici le constat qui devrait alerter tous les RSSI du secteur public.
Dans les environnements à faible activation, 64 % des agents enthousiastes déclarent utiliser des identifiants personnels au travail et 70 % recourent à l’IA pour des tâches professionnelles sans que leur responsable ne le sache.
Quand les administrations n’offrent pas d’outils d’IA approuvés, de règles claires ou de support accessible, les agents publics ne cessent pas d’utiliser l’IA. Ils le font de leur côté — en dehors de tout cadre. Et les conséquences sont bien plus graves qu’une simple case à cocher pour la conformité.
Imaginez ce que cela implique concrètement pour les agences fédérales américaines. Des données gouvernementales transitent par des comptes personnels ChatGPT sans supervision, sans traçabilité, sans contrôle de sécurité des données. Des informations sensibles sur les citoyens — informations personnelles identifiables (PII/PHI), dossiers fiscaux, données des forces de l’ordre — sont potentiellement ingérées dans des LLM publics pour des tâches de synthèse, d’analyse ou de rédaction. Des décisions politiques sont influencées par des outils d’IA non validés pour leur fiabilité, leur absence de biais ou leur pertinence. Et des violations potentielles de conformité aux réglementations HIPAA, FISMA et aux lois étatiques sur la confidentialité — sans aucune preuve permettant d’en mesurer l’étendue.
L’ironie est frappante. Les organisations qui se veulent « prudentes » en restreignant l’accès à l’IA créent en réalité bien plus de risques que celles qui fournissent des outils approuvés assortis de règles d’utilisation claires. Les chiffres de l’indice le prouvent dans tous les pays étudiés.
Il est temps de passer du débat « doit-on autoriser l’IA ? » à « comment activer l’IA de façon sécurisée ? ». Des solutions comme le Secure MFT Server de Kiteworks illustrent le type d’infrastructure capable de combler ce fossé — en permettant la productivité de l’IA avec des outils comme Claude, ChatGPT et Copilot, tout en gardant les données sensibles dans le réseau privé. Les cadres de gouvernance existants (RBAC/ABAC) s’appliquent à toutes les interactions IA, chaque opération est tracée pour la conformité et la traçabilité, et les contenus sensibles ne quittent jamais l’environnement de confiance. Pour les agences fédérales, la certification FedRAMP Moderate et l’alignement sur les mémos IA de la Maison Blanche et le cadre NIST de gestion des risques IA garantissent que ces protections répondent directement aux obligations de conformité existantes.
L’alternative — croire que restreindre l’accès suffira à stopper l’usage — est une illusion que les chiffres de l’indice viennent de balayer.
Le fossé de la traduction : ambition fédérale vs réalité terrain
Le gouvernement fédéral n’est pas resté inactif. Près de 90 % des agences fédérales utilisent déjà l’IA sous une forme ou une autre, selon une étude récente de Google. Les décrets présidentiels et l’AI Action Plan placent l’IA comme une priorité stratégique. L’Office of Management and Budget a publié de nouvelles directives sur la gouvernance et l’achat d’IA. Les DSI des États classent l’IA comme priorité n°1 pour 2026, plus de 90 % des États ayant au moins lancé des projets pilotes d’IA.
Les fondations sont donc posées. Mais l’indice révèle un écart flagrant entre l’activité au niveau des agences et l’expérience réelle sur le terrain.
Les agents publics américains affichent l’un des plus hauts niveaux d’expérience personnelle de l’IA de l’indice. Soixante-seize pour cent déclarent utiliser l’IA dans leur vie privée, et près des trois quarts (72 %) l’utilisent aussi au travail. Près de neuf sur dix (89 %) de ceux qui utilisent l’IA au travail y accèdent via leur organisation. Environ un tiers (32 %) disposent d’outils d’IA de niveau entreprise — une proportion supérieure à celle de nombreux autres pays.
Mais cet accès ne s’est pas traduit par une utilisation confiante et enthousiaste. Les États-Unis n’obtiennent que 43/100 sur l’enthousiasme — signe que la majorité des agents publics n’ont pas encore perçu de bénéfices clairs et adaptés à leur rôle au quotidien. L’IA est plus souvent perçue comme déconcertante que comme un levier d’autonomisation. Peu d’agents constatent des gains concrets comme des économies de temps ou une IA agissant comme un assistant efficace.
Et l’« accès » existant fait souvent défaut en matière de sécurité et de gouvernance, pourtant indispensables dans l’environnement fédéral. La plupart des agences fournissent des outils d’IA génériques sans accord de protection des données. Il n’existe aucune traçabilité permettant de savoir quelles données ont été partagées avec les systèmes d’IA, quand, ni par qui. Impossible de révoquer l’accès ou de supprimer les données des jeux d’entraînement après coup. Le score d’activation reflète la disponibilité, pas la sécurité — une nuance essentielle dès lors qu’il s’agit de données gouvernementales.
Comparez cela à ce qu’ont mis en place les pays les plus avancés. À Singapour, 73 % des agents publics savent clairement ce qu’ils peuvent ou non faire avec l’IA, et 58 % savent précisément à qui s’adresser en cas de problème. En Arabie saoudite, une stratégie nationale descendante a fait de l’IA un symbole de modernisation, avec 65 % d’accès à des outils d’IA de niveau entreprise et 79 % d’utilisation pour des tâches avancées ou techniques. En Inde, 83 % des agents du secteur public sont optimistes quant à l’IA et 59 % souhaitent qu’elle transforme radicalement leur quotidien.
Ces pays n’ont pas réussi parce qu’ils disposaient d’une meilleure technologie que les États-Unis. Ils ont réussi parce qu’ils ont facilité l’usage de l’IA en toute confiance pour les agents publics. Des règles claires. Des outils approuvés. Un support visible. Les États-Unis ont l’avantage technologique — ce qui leur manque, c’est le liant.
La couche manquante : la gouvernance des données IA
L’indice montre que les agents publics américains attendent « des directives claires et pratiques sur l’application de l’IA dans le secteur public » (38 %) et « la garantie de la confidentialité et de la sécurité des données » (34 %). Ce ne sont pas des préférences abstraites. Elles révèlent un manque fondamental sous-jacent à tous les autres défis d’adoption : la plupart des agences gouvernementales n’ont aucune visibilité sur les données partagées avec les systèmes d’IA.
Quels employés utilisent l’IA et dans quel but ? Les résultats générés par l’IA contiennent-ils des informations sensibles qui ne devraient pas être partagées en externe ? Comment appliquer les politiques de classification des données lorsque des outils d’IA sont utilisés ? Pour la plupart des agences, la réponse honnête à toutes ces questions est « nous ne savons pas ».
C’est là que les cadres de gouvernance des données IA deviennent essentiels — non comme un frein à l’adoption, mais comme le socle permettant une adoption en toute confiance. Les fonctions de Data Security Posture Management (DSPM) permettent d’identifier et de classifier les données sensibles dans tous les référentiels, y compris celles ingérées par les systèmes d’IA. L’application automatisée des règles peut bloquer l’ingestion de données privilégiées ou confidentielles selon les labels de classification. Les journaux d’audit détaillés assurent la traçabilité de toutes les interactions IA-données. Et, en cohérence avec le cadre NIST de gestion des risques IA, ces fonctions aident les agences à gouverner, cartographier et gérer les risques IA tout au long du cycle de vie des données.
L’approche de Kiteworks face à ce défi est instructive. En intégrant le DSPM à l’application automatisée des règles et à la journalisation immuable, les organisations peuvent taguer les données selon leur niveau de sensibilité — public, interne, confidentiel, classifié — et appliquer ces classifications automatiquement lors de l’utilisation d’outils d’IA. Chaque interaction IA-données est tracée avec l’ID utilisateur, l’horodatage, les données consultées et le système IA utilisé. Ce n’est pas qu’un exercice de conformité ; c’est l’infrastructure qui rend possible une adoption de l’IA en toute confiance, à grande échelle.
Sans cette couche, les gouvernements avancent à l’aveugle face au risque IA. Avec, ils peuvent dire « oui » à l’IA en sachant que les données sensibles sont protégées — exactement ce que demandent les agents publics.
Ce que demandent les agents publics américains
Interrogés sur ce qui les inciterait à utiliser davantage les outils d’IA, les agents publics américains ont été très précis :
- Des directives claires et pratiques sur l’application de l’IA dans le secteur public (38 %)
- Des outils plus simples à utiliser, sans compétences techniques spécialisées requises (36 %)
- La garantie de la confidentialité et de la sécurité des données (34 %)
- Des formations ou un accompagnement adaptés à chaque rôle (30 %)
- Une meilleure intégration avec les logiciels et systèmes existants (29 %)
Remarquez ce qui ne figure pas en tête de liste : le budget dédié (12 %) et le soutien de la direction (20 %) arrivent en bas du classement. Les agents publics ne réclament pas de nouveaux programmes d’envergure ou des initiatives coûteuses. Ils veulent de la clarté, de l’ergonomie et de la confiance — des éléments accessibles via la politique, la communication et des achats intelligents.
Et notez que les trois principales attentes — directives, ergonomie et sécurité des données — forment un tout indissociable. Impossible de fournir des directives claires sans savoir ce qui est sûr. Impossible de garantir la confidentialité sans infrastructure de gouvernance. Impossible de proposer des outils simples si les agents publics hésitent par crainte de se mettre en faute. Résoudre un point sans les autres ne fonctionne pas.
Pourquoi l’intégration est le critère le plus déterminant
Les États-Unis affichent le score le plus bas sur l’intégration (39/100), et les données de l’indice expliquent pourquoi c’est la métrique la plus importante.
Dans tous les pays, 61 % des agents en environnement à forte intégration déclarent bénéficier de l’IA pour des tâches avancées ou techniques, contre seulement 17 % là où l’intégration est faible. L’intégration gomme aussi les différences générationnelles : dans les environnements à forte intégration, 58 % des agents publics de 55 ans et plus gagnent plus d’une heure grâce à l’IA, contre seulement 16 % en environnement à faible intégration. Quand l’IA s’intègre aux outils existants, l’adoption ne dépend plus de la maîtrise technologique, mais permet à chacun de progresser dans son métier.
Les États-Unis sont aujourd’hui à l’extrémité opposée du spectre. L’indice décrit « une infrastructure formelle minimale, peu de structures de soutien, des investissements limités et de nombreux obstacles à l’intégration avec les systèmes existants ». Tant que l’intégration ne progresse pas, les gains de productivité promis par l’IA resteront concentrés sur un petit groupe d’utilisateurs précoces, au lieu de profiter à l’ensemble de la fonction publique.
Trois priorités pour changer la donne
L’indice identifie trois actions concrètes qui pourraient accélérer l’adoption de l’IA dans les services publics américains, à condition de les mener de front.
Premièrement, définir un mandat clair au sommet — soutenu par une infrastructure approuvée et sécurisée. Les agents publics ont besoin d’un signal constant et visible que l’usage de l’IA est encouragé, soutenu et conforme aux valeurs du service public. Mais l’autorisation sans la protection serait irresponsable. Les agences doivent déployer des solutions d’IA d’entreprise assorties d’accords de protection des données, de contrôles de gouvernance et d’une journalisation complète — pour que les données sensibles ne quittent jamais le réseau privé. Des plateformes comme le Secure MCP Server de Kiteworks montrent comment cela fonctionne concrètement : permettre la productivité IA avec des outils comme Claude, ChatGPT et Copilot tout en maintenant les contrôles de gouvernance des données exigés par les agences fédérales. Quand les agents savent que les outils sont approuvés, conformes et surveillés, la permission culturelle suit naturellement.
Deuxièmement, instaurer la confiance par la preuve et la préparation aux incidents. Beaucoup d’agents publics américains n’ont pas encore vu de bénéfices concrets et adaptés à leur rôle grâce à l’IA. Partager des exemples précis de réduction de la charge administrative, d’amélioration du service ou d’aide à la décision rendrait l’IA tangible. Mais la confiance suppose aussi de savoir quoi faire en cas d’incident. Imaginez : un agent public colle par erreur des milliers de numéros de Sécurité sociale dans un outil d’IA public pour analyse. Les données se retrouvent dans les systèmes du fournisseur — potentiellement stockées indéfiniment ou exposées à d’autres utilisateurs. L’agence peut-elle dire ce qui a été exposé, quand, par qui, et quelles autres données sensibles ont été partagées ? Sans journaux d’audit immuables, intégration SIEM pour la surveillance en temps réel et documentation de la chaîne de conservation, la réponse est non. Les capacités de réponse aux incidents spécifiques à l’IA ne sont pas optionnelles — elles sont indispensables pour une adoption responsable.
Troisièmement, intégrer des formations et des directives pratiques adaptées à chaque rôle. La sensibilisation à l’IA est forte aux États-Unis, mais la confiance ne suit pas. Des formations courtes et concrètes, adaptées à chaque fonction, peuvent combler ce fossé. Cela suppose une autorisation explicite pour les tâches à faible risque — rédaction, recherche, synthèse, brainstorming — et des directives précises montrant comment l’IA soutient les missions existantes. Modèles, prompts partagés et exemples concrets rendent l’adoption tangible. S’associer à des fournisseurs technologiques de confiance permet de former à grande échelle tout en rassurant sur la sécurité et la protection des données, comme le demandent les agents publics.
Des enjeux qui dépassent le classement
La septième place des États-Unis dans cet indice est embarrassante, mais le vrai coût n’est pas réputationnel. Il est opérationnel. Chaque jour sans outils d’IA sécurisés et approuvés, ce sont des données gouvernementales qui transitent par des comptes personnels sans supervision. Chaque semaine sans directives claires, ce sont des gains de productivité qui échappent à l’administration. Chaque mois sans gouvernance intégrée de l’IA, l’écart entre le secteur privé américain et le secteur public se creuse.
L’IA fantôme est déjà là. Soixante-dix pour cent des agents publics utilisent l’IA, souvent hors des canaux approuvés. Restreindre l’accès augmente les risques, au lieu de les réduire. Les outils existent — ce qui manque, c’est une infrastructure approuvée et sécurisée, associée à la permission culturelle et à des directives claires.
Les 301 agents publics américains interrogés dans cet indice envoient un message limpide : donnez-nous des directives, donnez-nous des outils sécurisés, et laissez-nous avancer. Reste à savoir si les décideurs entendent ce message — et s’ils agiront avant que l’IA fantôme ne se transforme en crise majeure de sécurité des données.
Foire aux questions
L’Indice d’adoption de l’IA dans le secteur public 2026 est une étude mondiale menée par Public First pour le Center for Data Innovation, avec le soutien de Google. Elle a interrogé 3 335 agents publics dans 10 pays — dont 301 aux États-Unis — pour mesurer l’expérience de l’IA dans les administrations. L’indice évalue les pays selon cinq dimensions : enthousiasme, formation, autonomisation, activation et intégration, chacune notée de 0 à 100. Il va au-delà de la simple existence de stratégies IA pour examiner si les agents publics disposent des outils, des formations, des autorisations et de l’infrastructure nécessaires pour utiliser l’IA efficacement dans leurs missions quotidiennes.
Les États-Unis se classent 7e sur 10 pays avec un score global de 45 sur 100. Ils obtiennent leur meilleur score en formation (50/100) et en activation (45/100), ce qui reflète l’accès à la formation et aux outils, mais leur score le plus faible concerne l’intégration (39/100), signe que l’IA est rarement intégrée dans les processus quotidiens. Les États-Unis sont derrière les pays les plus avancés comme l’Arabie saoudite (66), Singapour (58) et l’Inde (58), mais aussi l’Afrique du Sud (55) et le Brésil (49). L’indice qualifie les États-Unis d’« adopteur inégal » — un pays avec de solides bases en IA et une activité au niveau des agences, mais une diffusion plus lente dans l’usage quotidien et confiant des agents publics de terrain.
L’IA fantôme désigne l’utilisation par les agents publics d’outils d’IA non approuvés — souvent des comptes personnels sur des services comme ChatGPT — pour des tâches professionnelles, à l’insu de leur organisation. L’Indice d’adoption de l’IA dans le secteur public révèle que dans les environnements à faible activation, 64 % des utilisateurs enthousiastes d’IA utilisent des identifiants personnels au travail et 70 % recourent à l’IA sans que leur responsable ne le sache. Cela crée de graves risques de sécurité pour les administrations : des données sensibles sur les citoyens (informations personnelles identifiables (PII/PHI), dossiers fiscaux, informations des forces de l’ordre) peuvent être ingérées dans des grands modèles de langage publics sans traçabilité, sans contrôle de protection des données, et sans possibilité de déterminer ce qui a été exposé en cas de fuite. L’IA fantôme expose aussi à des violations potentielles de conformité aux réglementations HIPAA, FISMA et aux lois étatiques sur la confidentialité.
Selon l’indice, les agents publics américains citent en priorité des directives claires et pratiques sur l’application de l’IA dans le secteur public (38 %), des outils plus simples à utiliser, sans compétences techniques spécialisées (36 %), et la garantie de la confidentialité et de la sécurité des données (34 %). La formation adaptée à chaque rôle (30 %) et une meilleure intégration avec les systèmes existants (29 %) sont aussi très demandées. À noter, le budget dédié aux projets IA arrive en dernière position avec seulement 12 %, et le soutien de la direction à 20 %. Cela montre que les principaux freins à l’adoption ne sont pas financiers mais structurels : les agents publics ont besoin de clarté sur ce qui est autorisé, d’outils sécurisés et intuitifs, et de la certitude que l’utilisation de l’IA n’entraînera pas de risque de conformité ou de carrière.
Les données de l’indice — et l’expérience des pays les plus avancés — montrent que les administrations doivent passer de la restriction de l’accès à l’IA à son activation sécurisée. Cela implique de déployer des outils d’IA d’entreprise approuvés, dotés de contrôles de gouvernance des données, comme des plateformes qui gardent les données sensibles dans le réseau privé tout en permettant la productivité avec des assistants IA comme Claude, ChatGPT et Copilot. Les agences doivent mettre en place le Data Security Posture Management (DSPM) pour classifier les données sensibles et appliquer automatiquement les règles, conserver des journaux d’audit immuables pour toutes les interactions IA-données, et établir des capacités de réponse aux incidents spécifiques à l’exposition de données IA. Des solutions comme le Secure MCP Server de Kiteworks, certifié FedRAMP Moderate et aligné sur le cadre NIST de gestion des risques IA, montrent comment les agences peuvent activer la productivité IA sans sacrifier la sécurité ou la conformité des données.
L’Arabie saoudite (66/100), Singapour (58/100) et l’Inde (58/100) sont les pays les mieux classés de l’indice. Chacun a suivi une voie différente mais avec des points communs : des règles claires sur ce que les agents publics peuvent ou non faire avec l’IA, des outils approuvés et sécurisés fournis par l’organisation, et un soutien visible du leadership qui positionne l’IA comme une modernisation et non comme un risque. Singapour a construit des plateformes centralisées avec des directives standardisées via son initiative Smart Nation. L’Arabie saoudite a déployé une stratégie nationale descendante liée à Vision 2030 avec un déploiement d’IA à l’échelle de l’État. L’Inde a favorisé l’adoption par un élan culturel, des cours d’IA gratuits hébergés par l’État et une communication positive constante. Aucun de ces pays ne disposait d’une meilleure technologie IA que les États-Unis — ils ont réussi en facilitant et sécurisant l’usage quotidien de l’IA pour les agents publics.