Washington impose une formation à l’IA responsable à tous les agents publics. Pourquoi c’est indispensable — et pourquoi cela ne suffit pas.
Il faut reconnaître le mérite de Washington DC. Alors que la plupart des villes débattent encore de l’opportunité d’adopter une politique sur l’IA, la capitale américaine vient d’imposer à tous les agents publics et prestataires une formation sur l’IA responsable. Sans exception.
L’annonce du bureau du Chief Technology Officer de DC fait de la capitale la première grande ville américaine à rendre obligatoire une formation spécifique à l’IA pour l’ensemble de ses agents. Ce programme, accessible en autonomie via InnovateUS, aborde l’utilisation concrète de l’IA dans le secteur public, les enjeux de confidentialité, les risques liés aux deepfakes et les questions éthiques inhérentes à l’intégration de l’IA dans les services publics. Agents et prestataires doivent valider la formation sous 90 jours (GovTech).
Stephen Miller, CTO de DC, résume la démarche : « L’IA fait désormais partie du quotidien, et les agents publics ont besoin de repères concrets pour utiliser ces outils de façon responsable. » Cette formation s’inscrit dans la continuité du décret signé par la maire Bowser en 2024, qui pose un cadre de gouvernance pour l’usage de l’IA dans l’administration municipale, fondé sur six valeurs : bénéfice, sécurité, responsabilité, transparence, durabilité et confidentialité (Technical.ly).
C’est la bonne direction à suivre. Mais cela ne suffira pas à empêcher la fuite de données gouvernementales vers des systèmes d’IA non autorisés.
Ce n’est pas une critique de l’approche de DC. C’est un constat sur le comportement humain sous pression — et sur celui des agents IA sans gouvernance.
5 enseignements clés
- DC est la première grande ville américaine à imposer une formation sur l’IA responsable à tous ses agents publics. Washington DC a annoncé une formation obligatoire sur l’IA responsable pour l’ensemble de ses effectifs — agents et prestataires compris — devenant ainsi la première grande ville américaine à exiger une formation spécifique à l’IA pour les agents publics. Ce module en autonomie, délivré via InnovateUS, couvre les implications éthiques, de confidentialité et de sécurité liées à l’usage de l’IA dans l’administration, notamment la collecte, le traitement et la protection des données lors de l’intégration de l’IA dans les processus métiers.
- La formation est une étape essentielle — mais 98 % des organisations ont de l’IA fantôme malgré les politiques en place. Les études montrent que 98 % des organisations comptent des employés utilisant des applications non autorisées, avec une moyenne de 1 200 applis non officielles par structure. En moyenne, une organisation subit 223 violations de politiques de données liées à l’IA chaque mois. La formation indique aux employés ce qu’ils doivent faire. Mais elle ne les empêche pas de faire le contraire sous la pression des délais ou en l’absence d’outils approuvés.
- Les données gouvernementales font face à des risques IA spécifiques que la formation ne peut résoudre. Les agents publics manipulent des informations personnelles identifiables (PII), des dossiers de police, des délibérations politiques, des données d’achats publics et des communications inter-agences sensibles. Si ces données sont transférées vers des outils d’IA non autorisés — qu’il s’agisse d’un agent bien intentionné cherchant à respecter un délai ou d’un agent IA doté d’autorisations excessives — l’exposition est irréversible. Une fois intégrée à l’ensemble d’entraînement d’un modèle public, la donnée ne peut plus être récupérée, supprimée ou contrôlée.
- Les agents IA amplifient les risques au-delà de ce que toute formation peut couvrir. À mesure que les administrations déploient des agents IA — des systèmes autonomes capables de raisonner, d’agir et d’accéder aux ressources de l’organisation — les risques dépassent largement le champ d’une formation du personnel. Les agents IA peuvent être manipulés via des instructions cachées dans des documents ou des images pour exfiltrer des données sensibles sans aucune intervention humaine. Un employé formé ne peut pas empêcher une attaque qu’il ne voit même pas se produire.
- Une gouvernance efficace de l’IA repose sur cinq couches : formation, politique, contrôles techniques, supervision et audit. L’obligation de DC couvre les deux premières couches — formation et politique. Les trois autres — contrôles techniques pour empêcher les violations, supervision pour détecter les anomalies et audit pour prouver la conformité — nécessitent une infrastructure, pas un programme pédagogique. Les organisations qui associent formation et enforcement technique ne se contentent pas de réduire les risques. Elles rendent la formation réellement efficace.
Le paradoxe de la formation : les employés connaissent les règles… et les enfreignent quand même
Tous les RSSI connaissent cette réalité inconfortable de la formation à la sécurité : la sensibilisation ne garantit pas la conformité. Un employé peut réussir un module de formation à 10h et charger des données sensibles sur un outil d’IA non autorisé à 14h — non pas par malveillance, mais par réflexe humain. Il subit la pression des délais. L’outil approuvé est lent ou indisponible. Il doit résumer un document avant la réunion du lendemain. Et ChatGPT n’est qu’à un clic.
Les chiffres confirment cette tendance à grande échelle. 98 % des organisations ont des employés utilisant des applications non autorisées, avec une moyenne de 1 200 applis non officielles par structure (Varonis 2025 State of Data Security Report). En moyenne, une organisation subit 223 violations de politiques de données liées à l’IA chaque mois. Plus de 27 % des entreprises reconnaissent que plus de 30 % des informations envoyées à des outils d’IA contiennent des données confidentielles. Et seules 17 % des organisations disposent de contrôles techniques bloquant réellement l’accès aux IA publiques avec analyse DLP intégrée.
La perte de mémoire aggrave le problème. Sans rappel, la rétention d’information chute fortement entre 30 et 90 jours après la formation. Le délai de 90 jours imposé par DC permet aux agents de suivre le module une fois. Mais que se passe-t-il au 91e jour — et tous les jours suivants — quand les connaissances s’estompent mais que la pression des délais demeure ?
Imaginez la scène. Un agent de DC a validé la formation sur l’IA responsable. Il connaît les risques. Il sait qu’il doit utiliser uniquement les outils approuvés. Mais il doit résumer un document de 500 pages pour une réunion du conseil municipal le lendemain. L’outil IA validé est lent. Il charge le document sur un service d’IA public « juste cette fois ». Ce document contient des informations personnelles identifiables, des délibérations internes ou des propositions politiques sensibles. Les données se retrouvent dans un système public, potentiellement utilisées pour entraîner un modèle, et échappent définitivement au contrôle de l’administration.
La formation lui a dit de ne pas le faire. Rien ne l’en a empêché.
Vous pensez que votre organisation est sécurisée. Mais pouvez-vous le prouver ?
Pour en savoir plus :
Les données gouvernementales sont exposées à des risques que le secteur privé ne connaît pas
Quand un salarié d’une entreprise privée transfère des données internes vers un outil d’IA non autorisé, l’entreprise subit une fuite de données. Quand un agent public fait la même chose, c’est la collectivité qui en paie le prix.
Les administrations manipulent des données à la sensibilité et aux obligations uniques. Informations personnelles identifiables (PII) — numéros de sécurité sociale, dossiers médicaux, données fiscales — collectées sous autorité légale avec une promesse implicite de protection. Dossiers de police qui, s’ils sont exposés, peuvent mettre des personnes en danger ou compromettre des enquêtes. Délibérations politiques susceptibles d’influencer les marchés, les achats publics ou les relations intergouvernementales. Communications internes soumises au FOIA, au Privacy Act, et à la supervision des inspecteurs généraux, du GAO et des commissions législatives.
Les conséquences d’une fuite vont bien au-delà des sanctions financières. La confiance du public — fondement de la légitimité gouvernementale — s’effrite lorsque les citoyens apprennent que leurs données ont alimenté un modèle d’IA public parce qu’un agent voulait gagner du temps sur un rapport.
La formation de DC prend en compte ces enjeux. Le programme explique comment les données sont collectées, traitées et protégées lors de l’intégration de l’IA dans les processus métiers. Il renforce une approche « l’humain au centre » qui responsabilise les agents. Mais la responsabilité a posteriori ne protège pas pendant l’action.
Les agents IA créent des risques que la formation ne peut pas couvrir
La formation imposée par DC a été pensée pour un monde où seuls les humains interagissent avec les outils d’IA. Ce monde change déjà. Les agents IA — des systèmes autonomes capables de raisonner, d’agir et d’accéder aux ressources de l’organisation — s’intègrent dans les processus publics. Et ils introduisent des risques qu’aucune formation du personnel ne peut atténuer.
Le rapport Cyber Pulse de Microsoft indique que plus de 80 % des entreprises du Fortune 500 déploient des agents IA actifs, dont beaucoup sont créés avec des outils low-code accessibles à des non-développeurs. Le rapport alerte : ces agents « se déploient plus vite que certaines entreprises ne peuvent les détecter ». Le rapport 2025 de Proofpoint sur la sécurité des données décrit un « environnement agentique » que la plupart des organisations ne savent pas gouverner, et 32 % des organisations considèrent l’accès non supervisé des agents IA aux données comme une menace critique.
La surface d’attaque est avérée. Trend Micro a démontré que des agents IA peuvent être manipulés via des instructions cachées dans des documents ou des images — provoquant l’exfiltration de données sans aucune interaction utilisateur. Des chercheurs sur arXiv ont conçu un exploit complet où un agent basé sur RAG récupère des secrets de sa base de connaissances et les transmet à un serveur contrôlé par un attaquant, en utilisant son propre outil de recherche web comme canal d’exfiltration. Leur conclusion : les mécanismes de sécurité intégrés des modèles sont insuffisants sans couches de défense supplémentaires.
Un agent formé ne peut pas empêcher une attaque par injection de prompt contre un agent IA dont il ignore l’existence. Un agent formé ne peut pas détecter qu’un agent IA ayant accès à des dossiers confidentiels transmet des données vers une destination non autorisée. Un agent formé ne peut pas stopper ce qu’il ne voit pas.
À mesure que les administrations se tournent vers l’IA agentique — et que le cadre de gouvernance IA de DC envisage d’élargir l’usage de l’IA à l’ensemble de la ville — l’écart entre ce que la formation couvre et ce que les contrôles techniques préviennent va s’accroître. La formation s’adresse aux humains. Les contrôles techniques gouvernent les machines.
À quoi ressemble une gouvernance IA efficace : cinq couches, pas une seule
L’obligation de formation de DC est une composante importante de la gouvernance IA. Ce n’est pas la solution complète. Une gouvernance efficace de l’IA repose sur cinq couches complémentaires, et la formation n’en couvre qu’une seule.
La première couche, c’est la formation — exactement ce que DC met en place. Sensibilisation des agents à l’usage responsable de l’IA, aux risques, aux politiques et aux outils approuvés. Cette couche repose sur la conformité humaine. Elle est nécessaire mais insuffisante.
La deuxième couche, c’est la politique — les cadres de gouvernance posés par le décret de la maire Bowser. Règles écrites sur l’usage autorisé de l’IA, listes d’outils validés, exigences de classification des données. Cette couche fixe les attentes. Mais les politiques ne s’appliquent pas d’elles-mêmes.
La troisième couche, ce sont les contrôles techniques — l’infrastructure qui empêche les violations de politique, quel que soit le comportement des agents. DLP qui bloque l’envoi de données sensibles vers des IA non autorisées. Passerelles sécurisées qui proposent des alternatives IA validées pour éviter le recours à l’IA fantôme. Contrôles d’accès zéro trust qui limitent ce que les agents IA peuvent atteindre. C’est là que l’enforcement s’opère.
La quatrième couche, c’est la supervision — détection en temps réel des violations de politique et des anomalies. Identifier quand un agent tente d’utiliser une IA non autorisée. Signaler lorsqu’un agent IA demande des données hors de son périmètre. Détecter des accès inhabituels révélateurs d’un incident ou d’un usage abusif. Cette couche comble l’écart entre la politique écrite et la réalité terrain.
La cinquième couche, c’est l’audit — des journaux immuables de chaque interaction IA-données pour prouver la conformité auprès des autorités de contrôle. Quand un inspecteur général demande comment les données publiques interagissent avec les systèmes IA, il faut des preuves — pas un certificat de formation. Des logs d’audit détaillés montrent qui a accédé à quelles données, via quel système IA, à quel moment, et ce qu’il en a fait.
DC a mis en place les deux premières couches. Les trois suivantes nécessitent une infrastructure dédiée.
Faire appliquer la formation : la couche technique qui rend la gouvernance IA efficace
Le Réseau de données privé Kiteworks fournit les trois couches que la formation et la politique ne peuvent couvrir — contrôles techniques, supervision et audit — dans une plateforme unique conçue pour les organisations réglementées.
Pour prévenir l’IA fantôme, l’AI Data Gateway de Kiteworks bloque la transmission de données sensibles vers des services IA non autorisés tout en proposant une alternative sécurisée et gouvernée. Plutôt que de demander aux agents de ne pas utiliser d’outils IA publics et d’espérer qu’ils respectent la consigne, la plateforme applique la politique techniquement. L’analyse DLP détecte les données sensibles et bloque leur transmission. La passerelle sécurisée propose un workflow IA validé permettant aux agents d’utiliser l’IA sans que les données quittent le contrôle de l’administration. Face à un document de 500 pages et un délai serré, l’agent formé dispose ainsi d’une solution gouvernée — et pas seulement d’une politique restrictive.
Pour gouverner les agents IA, le Secure MCP Server de Kiteworks isole l’exécution des agents IA avec authentification OAuth 2.0, détection d’anomalies et application des cadres de gouvernance existants. Chaque agent IA est traité comme une identité distincte nécessitant une vérification zéro trust. Les accès sont limités au strict nécessaire pour chaque fonction. Les flux sortants sont contrôlés pour empêcher toute exfiltration — qu’elle provienne d’un agent compromis, d’un prompt manipulé ou d’un workflow mal configuré. C’est la couche qui traite les risques liés aux agents IA que la formation ne peut couvrir.
Pour prouver la responsabilité, Kiteworks fournit des journaux d’audit immuables retraçant chaque interaction IA-données — qui, quoi, quand, où, comment — sur le partage de fichiers, le transfert sécurisé de fichiers, la messagerie électronique, les formulaires web, les API et les interactions IA. Les alertes en temps réel signalent les violations de politique dès qu’elles surviennent. Un tableau de bord RSSI offre une visibilité sur l’accès aux données IA dans toute l’organisation. Quand les autorités de contrôle exigent la preuve que les politiques de gouvernance IA sont appliquées — et pas seulement documentées — les organisations équipées de Kiteworks peuvent la produire depuis un système unique.
Pour les administrations, Kiteworks dispose de l’autorisation FedRAMP High et prend en charge les déploiements sur site, en cloud privé ou hybride — répondant ainsi aux exigences de résidence et de souveraineté des données propres au secteur public. Les contrôles de conformité préconfigurés couvrent FISMA, le Privacy Act, HIPAA, CMMC et les nouvelles obligations réglementaires spécifiques à l’IA.
Formez vos équipes. Contrôlez vos données.
L’obligation de formation à l’IA responsable de DC mérite d’être saluée. Elle montre que l’administration prend la gouvernance IA au sérieux, que les agents publics ont besoin de repères concrets, et que les principes doivent se traduire dans la pratique quotidienne. D’autres collectivités et entreprises devraient suivre cet exemple.
Mais la formation seule n’a jamais suffi à empêcher les fuites de données — ni pour le phishing, ni pour la gestion des mots de passe, ni pour l’IA. Les organisations qui gouvernent l’IA avec succès associent formation et enforcement technique. Elles forment leurs équipes à l’usage responsable de l’IA, et déploient l’infrastructure technique qui fait de cet usage responsable la seule option possible.
La leçon à tirer de l’annonce de DC n’est pas que la formation est inutile. C’est qu’elle marque le début de la gouvernance IA, pas la fin. Les organisations qui s’arrêtent là rejoindront les 98 % qui voient l’IA fantôme prospérer malgré leurs politiques.
Celles qui associent formation et contrôles techniques garderont leurs données là où elles doivent être.
Pour découvrir comment Kiteworks peut vous accompagner, réservez votre démo sur mesure dès aujourd’hui.
Foire aux questions
La formation explique aux employés à quoi ressemble un usage responsable de l’IA — elle ne peut pas aller à l’encontre du comportement humain sous pression. Les études le confirment : 98 % des organisations ont des employés qui utilisent des applications non autorisées malgré les politiques, et une organisation subit en moyenne 223 violations de politiques de données liées à l’IA chaque mois. La rétention d’information chute fortement entre 30 et 90 jours après la formation, sans rappel. Quand l’échéance approche et que l’outil validé rame, les agents utilisent ce qui fonctionne. La seule solution fiable, c’est l’enforcement technique : des contrôles DLP qui bloquent les envois non autorisés et une passerelle IA gouvernée qui offre une alternative conforme — pour que les agents n’aient plus à choisir entre productivité et politique.
Les administrations détiennent des données dont la compromission a des conséquences bien plus graves qu’une fuite classique en entreprise. Informations personnelles identifiables (PII) — numéros de sécurité sociale, dossiers médicaux, données fiscales — collectées sous autorité légale avec une promesse implicite de protection. Dossiers de police qui, s’ils sont exposés, peuvent mettre des personnes en danger ou compromettre des enquêtes en cours. Délibérations politiques susceptibles d’influencer les marchés ou les marchés publics. Communications internes soumises au FOIA, au Privacy Act, et à la supervision des inspecteurs généraux et des commissions législatives. Une fois ces données intégrées à l’ensemble d’entraînement d’un modèle IA public, il est impossible de les récupérer, de les supprimer ou de les contrôler. Les dégâts sur la réputation et la confiance publique s’ajoutent à l’exposition juridique.
Les agents IA sont des systèmes autonomes qui accèdent aux données de l’organisation sans intervention humaine à chaque étape. Ils introduisent deux catégories de risques que la formation ne peut pas traiter. Premièrement, l’injection de prompt : des chercheurs ont montré que des instructions cachées dans des documents, images ou pages web peuvent manipuler un agent pour exfiltrer des données sensibles sans aucune action utilisateur. Un agent formé ne peut pas stopper une attaque qu’il ne voit pas. Deuxièmement, l’accès excessif : les agents fonctionnent souvent comme des identités très privilégiées, avec un accès bien plus large que n’importe quel utilisateur humain. Pour les gouverner, il faut des contrôles d’accès zéro trust, une exécution isolée et des journaux d’audit au niveau des données — autant d’éléments qu’une formation ne fournit pas.
Une gouvernance IA efficace repose sur cinq couches : la formation (sensibilisation des agents à l’usage responsable), la politique (cadres de gouvernance et listes d’outils validés), les contrôles techniques (DLP qui bloque les envois non autorisés, passerelles IA sécurisées, contrôles d’accès zéro trust pour les agents IA), la supervision (détection en temps réel des violations de politique et des comportements anormaux des agents) et l’audit (journaux d’audit immuables de chaque interaction IA-données pour la conformité et le contrôle). La formation couvre la première couche. Elle est nécessaire mais, sans les quatre autres, elle reste une déclaration d’intention et non un levier d’action. DC a mis en place les deux premières couches ; les trois suivantes nécessitent un investissement dans l’infrastructure.
Les administrations évoluent dans un environnement réglementaire complexe, qui croise directement la façon dont les outils IA accèdent, traitent et transmettent les données sensibles. FISMA impose aux systèmes fédéraux de respecter des contrôles de sécurité définis, qui s’appliquent à tout outil IA traitant des données publiques. Le Privacy Act encadre la collecte, l’utilisation et la divulgation des informations personnelles identifiables détenues par les agences fédérales — y compris par des systèmes automatisés. L’autorisation FedRAMP est requise pour les services cloud utilisés par les agences fédérales, ce qui signifie que les plateformes IA doivent répondre aux standards FedRAMP. HIPAA s’applique lorsque l’IA accède à des informations médicales protégées. CMMC régit les prestataires traitant des informations non classifiées contrôlées. Enfin, de nouvelles obligations spécifiques à l’IA — décrets, cadres de gouvernance au niveau des agences — imposent des exigences supplémentaires de documentation, d’auditabilité et de supervision humaine en complément des contrôles existants.
Ressources complémentaires
- Article de blog Architecture Zero Trust : Ne jamais faire confiance, toujours vérifier
- Vidéo Microsoft GCC High : Les inconvénients qui poussent les sous-traitants de la défense vers des solutions plus intelligentes
- Article de blog Comment sécuriser les données classifiées après détection par DSPM
- Article de blog Instaurer la confiance dans l’IA générative grâce à une approche Zero Trust
- Vidéo Guide ultime pour sécuriser le stockage des données sensibles à destination des responsables IT