DC verplicht verantwoorde AI-training voor elke overheidsmedewerker. Dit is waarom dat nodig is — en waarom het niet voldoende is.

DC verplicht verantwoorde AI-training voor elke overheidsmedewerker. Dit is waarom dat nodig is — en waarom het niet voldoende is.

Geef DC krediet. Terwijl de meeste steden nog steeds discussiëren of ze überhaupt een AI-beleid moeten hebben, heeft Washington zojuist elke overheidsmedewerker en -aannemer verplicht een training over verantwoord gebruik van AI te volgen. Geen uitzonderingen.

De aankondiging van het Office of the Chief Technology Officer van DC maakt van het District de eerste grote Amerikaanse stad die AI-specifieke training verplicht stelt voor de gehele overheidswerknemers. Het zelf te volgen programma, aangeboden via InnovateUS, behandelt praktische AI-toepassingen in overheidswerk, privacy-implicaties, deepfake-risico’s en de ethische overwegingen die gepaard gaan met het integreren van AI in publieke diensten. Werknemers en aannemers moeten de training binnen 90 dagen afronden (GovTech).

Stephen Miller, CTO van DC, verwoordde het duidelijk: “AI wordt onderdeel van het dagelijkse werk, en ambtenaren verdienen praktische richtlijnen om deze tools verantwoord te gebruiken.” De training bouwt voort op het executive order van burgemeester Bowser uit 2024, waarmee een governance-framework voor AI-gebruik in de hele stadsregering is opgezet, gebaseerd op zes waarden: voordeel, veiligheid, verantwoordelijkheid, transparantie, duurzaamheid en privacy (Technical.ly).

Dit is precies de juiste richting. En het zal niet voldoende zijn om te voorkomen dat overheidsdata in ongeautoriseerde AI-systemen terechtkomt.

Dat is geen kritiek op de aanpak van DC. Het is de realiteit van hoe mensen zich onder druk gedragen — en hoe AI-agenten zich gedragen zonder governance.

5 Belangrijke Inzichten

  1. DC is de eerste grote Amerikaanse stad die verantwoordelijke AI-training verplicht stelt voor alle overheidsmedewerkers. Washington, DC heeft verplichte training over verantwoord AI-gebruik aangekondigd voor het volledige overheidsapparaat — zowel werknemers als aannemers — en is daarmee de eerste grote Amerikaanse stad die AI-specifieke educatie verplicht voor ambtenaren. De zelf te volgen training, aangeboden via InnovateUS, behandelt de ethische, privacy- en beveiligingsimplicaties van AI-gebruik in de overheid, inclusief hoe data wordt verzameld, verwerkt en beschermd wanneer AI-tools in werkprocessen worden geïntegreerd.
  2. Training is een cruciale eerste stap — maar 98% van de organisaties heeft Shadow AI ondanks beleid. Onderzoek toont aan dat 98% van de organisaties werknemers heeft die ongeautoriseerde applicaties gebruiken, gemiddeld 1.200 niet-goedgekeurde apps per organisatie. De gemiddelde organisatie ervaart 223 AI-gerelateerde databeleidsovertredingen per maand. Training leert medewerkers wat ze zouden moeten doen. Het voorkomt niet dat ze het tegenovergestelde doen als de deadline nadert en goedgekeurde tools niet beschikbaar zijn.
  3. Overheidsdata kent unieke AI-risico’s die training niet kan oplossen. Overheidsmedewerkers verwerken PII van burgers, politiegegevens, beleidsbesprekingen, inkoopinformatie en gevoelige interdepartementale communicatie. Wanneer deze data naar ongeautoriseerde AI-tools stroomt — of dat nu gebeurt door een goedbedoelende medewerker die een deadline probeert te halen of door een AI-agent met te veel rechten — kan de blootstelling niet meer ongedaan worden gemaakt. Zodra data in de trainingsset van een openbaar model terechtkomt, kan het niet meer worden teruggehaald, verwijderd of gecontroleerd.
  4. AI-agenten vergroten het risico verder dan wat een trainingsprogramma kan dekken. Naarmate overheidsinstanties AI-agenten inzetten — autonome systemen die zelfstandig redeneren, handelen en toegang hebben tot bedrijfsbronnen — nemen de risico’s toe tot voorbij wat training kan afdekken. AI-agenten kunnen worden gemanipuleerd via verborgen instructies in documenten en afbeeldingen om gevoelige data te exfiltreren zonder enige gebruikersinteractie. Een getrainde medewerker kan een aanval die hij niet ziet niet voorkomen.
  5. Effectieve AI-governance vereist vijf lagen: educatie, beleid, technische controles, monitoring en audit. De verplichting van DC dekt de eerste twee lagen — educatie en beleid. De overige drie — technische controles die beleidsinbreuken voorkomen, monitoring die afwijkingen detecteert, en audittrails die compliance aantonen — vereisen infrastructuur, geen lesmateriaal. Organisaties die training combineren met technische handhaving beperken niet alleen het risico. Ze maken de training ook effectief.

De Trainingsparadox: Werknemers Kennen de Regels en Overtreden Ze Toch

Elke CISO kent de ongemakkelijke waarheid over securitytraining: bewustzijn betekent niet naleving. Werknemers kunnen ’s ochtends een trainingsmodule met een perfecte score afronden en ’s middags gevoelige data uploaden naar een ongeautoriseerde AI-tool — niet omdat ze kwaadwillend zijn, maar omdat ze menselijk zijn. Ze staan onder tijdsdruk. De goedgekeurde tool is traag of niet beschikbaar. Het document moet voor de vergadering van morgen worden samengevat. En ChatGPT is maar één tabblad verwijderd.

De data bevestigt dit patroon op schaal. Achtentachtig procent van de organisaties heeft werknemers die ongeautoriseerde applicaties gebruiken, gemiddeld 1.200 niet-goedgekeurde apps per organisatie (Varonis 2025 State of Data Security Report). De gemiddelde organisatie ervaart 223 AI-gerelateerde databeleidsovertredingen per maand. Meer dan 27% van de bedrijven geeft toe dat meer dan 30% van de informatie die naar AI-tools wordt gestuurd privédata bevat. En slechts 17% van de organisaties heeft technische controles die daadwerkelijk de toegang tot publieke AI-tools blokkeren in combinatie met DLP-scanning.

Trainingsverval maakt het erger. Informatieretentie daalt aanzienlijk binnen 30 tot 90 dagen zonder herhaling. Het 90-dagenvenster van DC zorgt ervoor dat medewerkers het materiaal één keer doorlopen. De vraag is wat er op dag 91 gebeurt — en elke dag daarna — wanneer de kennis vervaagt maar de deadline druk blijft.

Stel je het scenario voor. Een medewerker van de overheid van DC heeft de training over verantwoord AI-gebruik afgerond. Ze begrijpen de risico’s. Ze weten dat ze alleen goedgekeurde tools mogen gebruiken. Maar ze moeten een beleidsdocument van 500 pagina’s samenvatten voor een raadsvergadering morgen. De goedgekeurde AI-tool is traag. Ze uploaden het document “voor deze ene keer” naar een openbare AI-dienst. Dat document bevat PII van burgers, interne overwegingen of gevoelige beleidsvoorstellen. De data bevindt zich nu in een openbaar systeem, mogelijk gebruikt voor modeltraining, permanent buiten de controle van de overheid.

De training zei dat het niet mocht. Niets hield ze tegen.

Je vertrouwt erop dat je organisatie veilig is. Maar kun je het verifiëren?

Lees nu

Overheidsdata kent Risico’s die de Private Sector Niet Heeft

Wanneer een medewerker van een privébedrijf interne data uploadt naar een ongeautoriseerde AI-tool, leidt dat tot een datalek. Wanneer een overheidsmedewerker hetzelfde doet, betaalt het publiek de prijs.

Overheidsinstanties verwerken data met een unieke gevoeligheid en unieke verplichtingen. PII van burgers — burgerservicenummers, medische dossiers, belastinginformatie — verzameld onder wettelijke autoriteit met een impliciete belofte van bescherming. Politiegegevens die individuen in gevaar kunnen brengen of onderzoeken kunnen compromitteren als ze worden blootgesteld. Beleidsbesprekingen die markten, inkoopbeslissingen of intergouvernementele relaties kunnen beïnvloeden. Interne communicatie die onderworpen is aan FOIA, de Privacy Act en toezicht door inspecteurs-generaal, de GAO en wetgevende commissies.

De gevolgen van blootstelling gaan verder dan financiële sancties. Publiek vertrouwen — de basis van overheidslegitimiteit — wordt aangetast wanneer burgers ontdekken dat hun data in een openbaar AI-model is terechtgekomen omdat een medewerker tijd wilde besparen op een rapport.

De training van DC erkent deze risico’s. Het programma behandelt hoe data wordt verzameld, verwerkt en beschermd wanneer AI-tools in werkprocessen worden geïntegreerd. Het versterkt een “mens-in-de-lus”-benadering die medewerkers verantwoordelijk houdt. Maar verantwoordelijkheid achteraf voorkomt geen blootstelling tijdens de handeling.

AI-agenten Creëren een Risicocategorie die Training Niet Kan Oplossen

De trainingsverplichting van DC is ontworpen voor een wereld waarin mensen de interactie met AI-tools aangaan. Die wereld verandert snel. AI-agenten — autonome systemen die zelfstandig redeneren, handelen en toegang hebben tot bedrijfsbronnen — worden geïntroduceerd in overheidsprocessen. En ze brengen risico’s met zich mee die geen enkele training voor medewerkers kan beperken.

Het Cyber Pulse-rapport van Microsoft bevestigt dat meer dan 80% van de Fortune 500-bedrijven actieve AI-agenten inzet, waarvan veel zijn gebouwd met low-code tools waardoor niet-ontwikkelaars agenten kunnen creëren. Het rapport waarschuwt dat deze agenten “sneller opschalen dan sommige bedrijven ze kunnen overzien.” Het 2025 Data Security Landscape-rapport van Proofpoint beschrijft een “agentic workspace” waar de meeste organisaties onvoldoende zicht op hebben, met 32% van de organisaties die ongecontroleerde AI-agenttoegang tot data als een kritiek risico bestempelen.

Het aanvalsoppervlak is bewezen. Trend Micro toonde aan dat AI-agenten kunnen worden gemanipuleerd via verborgen instructies in documenten en afbeeldingen — waardoor data geëxfiltreerd kan worden zonder enige gebruikersinteractie. Onderzoekers op arXiv bouwden een volledige exploit waarbij een RAG-gebaseerde agent geheimen uit zijn kennisbank ophaalde en deze naar een server onder controle van een aanvaller stuurde, waarbij de webzoekfunctie van de agent als exfiltratiekanaal werd gebruikt. Hun conclusie: ingebouwde modelveiligheidsfuncties zijn onvoldoende zonder extra verdedigingslagen.

Een getrainde medewerker kan een prompt-injectieaanval tegen een AI-agent die hij niet eens kent niet voorkomen. Een getrainde medewerker kan niet detecteren dat een agent met toegang tot burgergegevens data naar een ongeautoriseerde bestemming stuurt. Een getrainde medewerker kan niet stoppen wat hij niet ziet.

Nu overheidsinstanties overstappen op agentic AI — en het AI-governance-framework van DC zelf nadenkt over uitbreiding van AI-gebruik in stadsprocessen — wordt de kloof tussen wat training dekt en wat technische controles voorkomen steeds groter. Training leert mensen. Technische controles sturen machines aan.

Hoe Volledige AI-governance Er Echt Uitziet: Vijf Lagen, Niet Eén

De trainingsverplichting van DC is een belangrijk onderdeel van AI-governance. Het is niet het volledige plaatje. Effectieve AI-governance vereist vijf samenwerkende lagen, en training dekt alleen de eerste.

Laag één is educatie — precies wat DC implementeert. Training van medewerkers over verantwoord AI-gebruik, bewustzijn van risico’s, kennis van beleid en goedgekeurde tools. Deze laag is afhankelijk van menselijke naleving. Het is noodzakelijk maar niet voldoende.

Laag twee is beleid — de governance-frameworks die DC heeft vastgesteld via het executive order van burgemeester Bowser. Schriftelijke regels voor acceptabel AI-gebruik, goedgekeurde tools, vereisten voor dataclassificatie. Deze laag schept verwachtingen. Beleid handhaaft zichzelf niet.

Laag drie is technische controle — de infrastructuur die beleidsinbreuken voorkomt, ongeacht het gedrag van medewerkers. DLP die gevoelige data blokkeert naar ongeautoriseerde AI-diensten. Beveiligde gateways die goedgekeurde AI-alternatieven bieden zodat medewerkers niet naar shadow AI grijpen. Zero-trust toegangscontrole die bepaalt wat AI-agenten mogen bereiken. Hier vindt handhaving plaats.

Laag vier is monitoring — realtime detectie van beleidsinbreuken en afwijkingen. Identificeren wanneer een medewerker een ongeautoriseerde AI-tool probeert te gebruiken. Signaleren wanneer een AI-agent data opvraagt buiten zijn toegestane bereik. Ongebruikelijke toegangs­patronen detecteren die wijzen op compromittering of misbruik. Deze laag sluit de kloof tussen wat het beleid voorschrijft en wat er daadwerkelijk gebeurt.

Laag vijf is audit — onveranderlijke logs van elke AI-data-interactie die compliance aantonen aan toezichthouders. Wanneer een inspecteur-generaal vraagt hoe overheidsdata met AI-systemen interageert, heb je bewijs nodig — geen certificaat van voltooide training. Uitgebreide auditlogs tonen wie welke data heeft benaderd, via welk AI-systeem, wanneer, en wat er mee is gebeurd.

DC heeft laag één en twee. De overige drie vereisen infrastructuur.

Handhaven Wat Training Leert: De Technische Laag Die AI-governance Laat Werken

Het Kiteworks Private Data Network levert de drie lagen die training en beleid niet kunnen bieden — technische controles, monitoring en audit — op één platform, speciaal ontwikkeld voor gereguleerde organisaties.

Voor het voorkomen van shadow AI blokkeert de AI Data Gateway van Kiteworks gevoelige data richting ongeautoriseerde AI-diensten en biedt het een veilig, beheerd alternatief. In plaats van medewerkers te vertellen dat ze publieke AI-tools niet mogen gebruiken en te hopen dat ze zich eraan houden, handhaaft het platform het beleid technisch. DLP-scanning detecteert gevoelige data en voorkomt verzending. De beveiligde gateway biedt een goedgekeurde AI-werkstroom waarin medewerkers AI productief kunnen inzetten zonder dat data de controle van de overheid verlaat. Wanneer de getrainde medewerker dat 500-pagina’s tellende document en de deadline van morgen onder ogen ziet, is er een beheerd pad vooruit — niet alleen een beleid dat zegt wat niet mag.

Voor het beheren van AI-agenten sandboxen de Secure MCP Server van Kiteworks de uitvoering van AI-agenten met OAuth 2.0-authenticatie, anomaliedetectie en handhaving van bestaande governance-frameworks. Elke AI-agent wordt behandeld als een aparte identiteit die zero-trust verificatie vereist. Toegang wordt beperkt tot de minimale data die nodig is voor elke functie. Uitgaande datastromen worden beheerd om exfiltratie te voorkomen — of dit nu wordt veroorzaakt door een gecompromitteerde agent, een gemanipuleerde prompt of een verkeerd geconfigureerde workflow. Dit is de laag die de AI-agentrisico’s aanpakt die geen enkel trainingsprogramma kan dekken.

Voor het aantonen van verantwoordelijkheid biedt Kiteworks uitgebreide, onveranderlijke audittrails die elke AI-data-interactie vastleggen — wie, wat, wanneer, waar, hoe — over bestandsoverdracht, beheerde bestandsoverdracht, e-mail, webformulieren, API’s en AI-interacties. Realtime waarschuwingen signaleren beleidsinbreuken op het moment dat ze plaatsvinden. Een CISO-dashboard biedt inzicht in AI-data-toegang binnen de organisatie. Wanneer toezichthouders om bewijs vragen dat AI-governancebeleid wordt gehandhaafd — en niet alleen op papier staat — leveren organisaties die Kiteworks gebruiken dit uit één systeem.

Voor overheidsinstanties specifiek heeft Kiteworks FedRAMP High-autorisatie en ondersteunt het on-premises, private cloud en hybride inzet — waarmee wordt voldaan aan de vereisten voor dataresidentie en datasoevereiniteit die overheidsorganisaties hebben. Vooraf in kaart gebrachte compliancecontroles dekken FISMA, de Privacy Act, HIPAA, CMMC en opkomende AI-specifieke regelgevingseisen.

Leid Je Mensen Op. Beheer Je Data.

De verplichte training over verantwoord AI-gebruik van DC verdient erkenning. Het laat zien dat de overheid AI-governance serieus neemt, dat ambtenaren praktische richtlijnen nodig hebben, en dat beleidsprincipes moeten worden vertaald naar de dagelijkse praktijk. Andere rechtsbevoegdheden en bedrijven zouden het voorbeeld van DC moeten volgen.

Maar alleen training is nooit voldoende geweest om datalekken te voorkomen — niet bij phishing, niet bij wachtwoordhygiëne, en niet bij AI. De organisaties die AI succesvol beheren combineren educatie met handhaving. Ze leiden hun mensen op in verantwoord AI-gebruik, en ze zetten de technische infrastructuur in die ervoor zorgt dat verantwoord AI-gebruik de enige beschikbare optie is.

De les uit de aankondiging van DC is niet dat training overbodig is. Het is dat training het begin is van AI-governance, niet het einde. Organisaties die het als het einde zien, zullen zich voegen bij de 98% die shadow AI gebruiken ondanks hun beste beleid.

Degenen die training combineren met technische controles zijn degenen van wie de data blijft waar die hoort.

Wil je weten hoe Kiteworks kan helpen? Plan vandaag nog een demo op maat.

Veelgestelde Vragen

Training leert medewerkers hoe verantwoord AI-gebruik eruitziet — het kan menselijk gedrag onder druk niet overrulen. Onderzoek bevestigt dit: 98% van de organisaties heeft medewerkers die ongeautoriseerde applicaties gebruiken ondanks beleid, en de gemiddelde organisatie ervaart 223 AI-gerelateerde databeleidsovertredingen per maand. Informatieretentie neemt ook aanzienlijk af binnen 30 tot 90 dagen na training zonder herhaling. Als de deadline nadert en de goedgekeurde tool traag is, grijpen medewerkers naar wat werkt. De enige betrouwbare oplossing is technische handhaving: DLP-controles die ongeautoriseerde uploads blokkeren en een beheerde AI-gateway die medewerkers een compliant alternatief biedt — zodat ze niet hoeven te kiezen tussen productiviteit en beleid.

Overheidsinstanties beheren datacategorieën waarvan de gevolgen veel verder gaan dan een doorsnee bedrijfsdatalek. PII van burgers — burgerservicenummers, medische dossiers, belastinginformatie — verzameld onder wettelijke autoriteit met een impliciete belofte van bescherming. Politiegegevens die individuen in gevaar kunnen brengen of lopende onderzoeken kunnen compromitteren. Beleidsbesprekingen die markten of inkoopresultaten kunnen beïnvloeden. Interne communicatie die onderworpen is aan FOIA, de Privacy Act en toezicht door inspecteurs-generaal en wetgevende commissies. Wanneer deze data in de trainingsset van een openbaar AI-model terechtkomt, kan het niet meer worden teruggehaald, verwijderd of gecontroleerd. De reputatie- en vertrouwensschade komt bovenop de juridische blootstelling.

AI-agenten zijn autonome systemen die zelfstandig toegang hebben tot bedrijfsdata — zonder menselijke aansturing bij elke actie. Ze brengen twee risicocategorieën met zich mee die training niet kan oplossen. Ten eerste prompt-injectie: onderzoekers hebben aangetoond dat verborgen instructies in documenten, afbeeldingen of webpagina’s een agent kunnen manipuleren om gevoelige data te exfiltreren zonder enige gebruikersinteractie. Een getrainde medewerker kan een aanval die hij niet ziet niet stoppen. Ten tweede overmatige toegang: agenten functioneren vaak als zeer bevoorrechte identiteiten met veel bredere datatoegang dan een menselijke gebruiker ooit zou krijgen. Het beheren hiervan vereist zero-trust toegangscontrole, sandboxed uitvoering en audittrails op de data layer — geen van allen wordt door een trainingsprogramma geboden.

Effectieve AI-governance vereist vijf lagen: educatie (training van medewerkers in verantwoord gebruik), beleid (governance-frameworks en lijsten met goedgekeurde tools), technische controles (DLP die ongeautoriseerde uploads blokkeert, beveiligde AI-gateways, zero-trust toegangscontrole voor AI-agenten), monitoring (realtime detectie van beleidsinbreuken en afwijkend agentgedrag), en audit (onveranderlijke audittrails van elke AI-data-interactie voor compliance en toezicht). Training dekt laag één. Het is noodzakelijk, maar zonder de overige vier lagen blijft het documentatie van intentie in plaats van handhaving van gedrag. DC heeft laag één en twee opgebouwd; de overige drie vereisen investeringen in infrastructuur.

Overheidsinstanties bevinden zich in een gelaagde compliance-omgeving die direct samenhangt met hoe AI-tools gevoelige data benaderen, verwerken en verzenden. FISMA vereist dat federale informatiesystemen voldoen aan vastgestelde beveiligingscontroles, die ook gelden voor AI-tools die overheidsdata verwerken. De Privacy Act regelt hoe persoonlijk identificeerbare informatie die door federale instanties wordt beheerd, wordt verzameld, gebruikt en gedeeld — ook door geautomatiseerde systemen. FedRAMP-autorisatie is vereist voor cloudservices die door federale instanties worden gebruikt, wat betekent dat AI-platforms aan FedRAMP-standaarden moeten voldoen. HIPAA geldt wanneer AI toegang heeft tot beschermde gezondheidsinformatie. CMMC is van toepassing op aannemers die gecontroleerde, niet-geclassificeerde informatie verwerken. En opkomende AI-specifieke verplichtingen — waaronder executive orders en agency-level AI-governance-frameworks — voegen documentatie, auditbaarheid en menselijke toezichtvereisten toe bovenop bestaande controles.

Aanvullende Bronnen

  • Blog Post Zero Trust Architectuur: Never Trust, Always Verify
  • Video Microsoft GCC High: Nadelen die defensie-aannemers richting slimmere voordelen sturen
  • Blog Post Hoe je geclassificeerde data beveiligt zodra DSPM het signaleert
  • Blog Post Vertrouwen opbouwen in Generatieve AI met een Zero Trust-aanpak
  • Video De definitieve gids voor het veilig opslaan van gevoelige data voor IT-leiders

Aan de slag.

Het is eenvoudig om te beginnen met het waarborgen van naleving van regelgeving en het effectief beheren van risico’s met Kiteworks. Sluit je aan bij de duizenden organisaties die vol vertrouwen privégegevens uitwisselen tussen mensen, machines en systemen. Begin vandaag nog.

Table of Content
Share
Tweet
Share
Explore Kiteworks