Shadow AI-crisis: De verborgen beveiligingsrisico’s van de overheid oplossen
De Verenigde Staten herbergen het meest geavanceerde AI-ecosysteem ter wereld. Amerikaanse bedrijven bouwen de meest vooruitstrevende modellen. Amerikaanse onderzoekers publiceren baanbrekende artikelen. Amerikaans durfkapitaal stimuleert de volgende generatie AI-startups.
Toch loopt de VS, als het gaat om het inzetten van AI binnen de overheid, achter op landen die het eigenlijk voorbij zou moeten streven.
Belangrijkste inzichten
- Shadow AI is nu al een overheidsbreed beveiligingsrisico. In instanties waar geen goedgekeurde AI-tools zijn aangeboden, gebruikt 64% van de ambtenaren persoonlijke logins op het werk en gebruikt 70% AI zonder dat hun manager het weet. Overheidsdata — waaronder persoonlijke gegevens van burgers (PII), belastinggegevens en politiedossiers — stroomt via niet-gecontroleerde consumentgerichte AI-tools zonder audittrail, zonder toezicht en zonder incident response-mogelijkheden.
- De VS staat op de 7e plaats van 10 landen, ondanks leidende rol in wereldwijde AI-ontwikkeling. De Verenigde Staten scoorden slechts 45 van de 100 op de Public Sector AI Adoption Index, en staan daarmee achter Zuid-Afrika en Brazilië. Het probleem zit niet in technologie — het is governance, duidelijke richtlijnen en een veilige infrastructuur die ambtenaren het vertrouwen geeft om AI als onderdeel van hun dagelijkse werk te gebruiken.
- AI-toegang beperken creëert meer risico dan het veilig mogelijk maken. Organisaties die voorzichtig willen zijn door AI-toegang te beperken, stoppen het gebruik niet — ze drijven het ondergronds. De indexdata laat zien dat veilige inzet met goedgekeurde tools, gegevensbeheercontroles en uitgebreide auditlogs de enige aanpak is die risico’s vermindert en tegelijkertijd productiviteitswinst ontsluit.
- AI integreren in werkprocessen is wat echte waarde ontsluit. De VS scoorde slechts 39 van de 100 op integratie — de laagste van alle vijf indexdimensies. Dat is belangrijk, want 61% van de ambtenaren in omgevingen met hoge integratie meldt voordelen van geavanceerd AI-gebruik, tegenover slechts 17% waar integratie laag is. Als AI wordt geïntegreerd in de systemen die mensen al gebruiken, strekt de productiviteitswinst zich uit over alle leeftijden en vaardigheidsniveaus.
- Ambtenaren vragen niet om budget — ze vragen om duidelijkheid en veiligheid. Gevraagd naar wat vaker AI-gebruik zou stimuleren, zetten Amerikaanse ambtenaren duidelijke richtlijnen (38%), gebruiksvriendelijkere tools (36%) en waarborg van gegevensprivacy (34%) bovenaan. Een toegewijd budget stond onderaan met 12%. De barrières voor adoptie zijn op te lossen met beleid, communicatie en slimme inkoop — niet met enorme nieuwe uitgaven.
De Public Sector AI Adoption Index 2026, onlangs uitgebracht door Public First voor het Center for Data Innovation met sponsoring van Google, ondervroeg 3.335 ambtenaren in 10 landen — waaronder 301 in de Verenigde Staten. De VS staat zevende van de tien, met slechts 45 van de 100 punten. Daarmee staat het onder Zuid-Afrika en Brazilië, en ver achter koplopers als Singapore (58), Saoedi-Arabië (66) en India (58).
Dit is geen technologieprobleem. Het is een probleem van governance, beveiliging en leiderschap — en het creëert een enorm shadow AI-risico dat de meeste overheids-IT-leiders negeren.
De cijfers die elke overheids-CISO wakker zouden moeten houden
De index meet hoe ambtenaren AI ervaren op vijf dimensies: enthousiasme, empowerment, enablement, integratie en educatie. Voor de VS schetsen de scores het beeld van een personeelsbestand dat toegang heeft tot AI, maar niet het vertrouwen, de duidelijkheid of de veilige infrastructuur heeft gekregen om het goed te gebruiken:
- Enthousiasme: 43/100 — een van de laagste scores wereldwijd. Veertig procent van de Amerikaanse ambtenaren omschrijft AI als “overweldigend”.
- Educatie: 50/100 — er is training, maar die is meestal basaal en ongelijk verdeeld over organisaties.
- Empowerment: 46/100 — meer dan een op de drie ambtenaren weet niet of hun organisatie überhaupt een formeel AI-beleid heeft.
- Enablement: 45/100 — tools zijn beschikbaar, maar “toegang” betekent niet “veilig” of “conform regelgeving”.
- Integratie: 39/100 — de laagste score van alle vijf. AI-tools staan naast legacy-systemen in plaats van te worden geïntegreerd in werkprocessen.
Bijna de helft van de Amerikaanse ambtenaren (45%) zegt dat hun organisatie “voorzichtig moet bewegen om fouten te voorkomen”. Minder dan de helft voelt dat ze duidelijke richting krijgen van het leiderschap over hoe AI gebruikt moet worden. Slechts 56% zegt zich zeker te voelen bij het gebruik van AI-tools.
Dit zijn niet de cijfers van een personeelsbestand dat AI tegenwerkt. Dit zijn de cijfers van mensen die wachten tot iemand zegt dat het veilig is om door te gaan.
De Shadow AI-tijdbom
Dit is de bevinding die elke overheids-CISO zou moeten verontrusten.
In omgevingen met lage enablement binnen de index meldt 64% van de enthousiaste AI-gebruikers dat ze persoonlijke logins op het werk gebruiken, en 70% gebruikt AI voor werk zonder dat hun manager het weet.
Als overheden geen goedgekeurde AI-tools, duidelijke beleidsregels of toegankelijke ondersteuning bieden, stoppen ambtenaren niet met AI-gebruik. Ze doen het gewoon zelf — buiten de vangrails. En de gevolgen zijn veel ernstiger dan een compliance-vinkje.
Denk na over wat dit in de praktijk betekent voor Amerikaanse federale instanties. Overheidsdata die via persoonlijke ChatGPT-accounts loopt zonder toezicht, zonder audittrail en zonder gegevensbeveiligingscontroles. Gevoelige burgerinformatie — PII/PHI, belastinggegevens, politiedata — die mogelijk wordt ingevoerd in publieke LLM’s voor samenvatting, analyse of opstellen. Beleidsbeslissingen die worden beïnvloed door AI-tools die niet zijn gecontroleerd op nauwkeurigheid, bias of geschiktheid. En mogelijke compliance-overtredingen van HIPAA, FISMA en staatsprivacywetten — zonder forensisch bewijs om de omvang te bepalen.
De ironie is duidelijk. Organisaties die “voorzichtig” willen zijn met AI door toegang te beperken, creëren veel meer risico dan organisaties die goedgekeurde tools met duidelijke gebruiksrichtlijnen bieden. De indexdata bevestigt dit in elk onderzocht land.
Hier moet het gesprek verschuiven van “moeten we AI toestaan” naar “hoe stellen we AI veilig beschikbaar”. De benodigde infrastructuur moet AI-productiviteit mogelijk maken met tools als Claude, ChatGPT en Copilot, terwijl gevoelige data binnen een privaat netwerk blijft. Bestaande governance-raamwerken (RBAC/ABAC) moeten worden uitgebreid naar alle AI-interacties, elke AI-operatie moet worden gelogd voor compliance en forensisch onderzoek, en gevoelige inhoud mag nooit de vertrouwde omgeving verlaten. De Secure MFT Server van Kiteworks is een voorbeeld van deze aanpak in de praktijk. Voor federale instanties betekent FedRAMP-autorisatie en afstemming met White House AI-memoranda en het NIST AI Risicobeheer Framework dat deze bescherming direct aansluit op bestaande compliance-verplichtingen.
Het alternatief — doen alsof het beperken van toegang het gebruik stopt — is een illusie die de indexdata nu met harde cijfers heeft ontkracht.
De vertaalkloof: federale ambitie versus de praktijk op de werkvloer
De federale overheid heeft niet stilgezeten. Bijna 90% van de federale instanties gebruikt al op een of andere manier AI, volgens recent onderzoek van Google. Executive Orders van het Witte Huis en America’s AI Action Plan hebben AI tot strategische prioriteit gemaakt. Het Office of Management and Budget heeft bijgewerkte richtlijnen uitgegeven over AI-governance en inkoop. CIO’s van staten hebben AI als hun topprioriteit voor 2026 aangemerkt, met meer dan 90% van de staten die minimaal AI-projecten testen.
De bouwstenen zijn er dus. Maar de index laat een duidelijke vertaalkloof zien tussen activiteiten op instellingsniveau en de ervaring op de werkvloer.
Amerikaanse ambtenaren rapporteren een van de hoogste niveaus van persoonlijke AI-ervaring in de index. Zesentachtig procent zegt AI privé te gebruiken, en bijna driekwart (72%) daarvan gebruikt AI ook op het werk. Bijna negen op de tien (89%) die AI op het werk gebruiken, hebben toegang tot tools via hun organisatie. Ongeveer een derde (32%) heeft toegang tot enterprise-grade AI-tools — een hoger aandeel dan in veel andere landen.
Maar die toegang heeft niet geleid tot zelfverzekerd, enthousiast gebruik. De VS scoorde slechts 43/100 op enthousiasme — wat betekent dat de meeste ambtenaren nog geen duidelijke, rolgebonden voordelen zien in hun dagelijkse taken. AI wordt vaker omschreven als overweldigend dan als versterkend. Minder medewerkers melden tastbare voordelen zoals tijdsbesparing of AI die functioneert als een effectieve assistent.
En de “toegang” die er is, mist vaak de beveiligings- en governancecontroles die federale omgevingen vereisen. De meeste instanties bieden generieke AI-tools zonder gegevensbeschermingsovereenkomsten. Er zijn geen audittrails die bijhouden welke data met AI-systemen is gedeeld, wanneer of door wie. Geen mogelijkheid om toegang in te trekken of data achteraf uit AI-trainingssets te verwijderen. De enablement-score weerspiegelt beschikbaarheid, geen veiligheid — en dat onderscheid is cruciaal als het om overheidsdata gaat.
Vergelijk dit met wat de koplopers hebben opgebouwd. In Singapore weet 73% van de ambtenaren precies waarvoor ze AI wel en niet mogen gebruiken, en 58% weet exact bij wie ze terechtkunnen bij problemen. In Saoedi-Arabië voelt AI als modernisering in plaats van verstoring dankzij een nationale top-downstrategie, met 65% die toegang heeft tot enterprise-level AI-tools en 79% die AI gebruikt voor geavanceerde of technische taken. In India is 83% van de ambtenaren optimistisch over AI en wil 59% dat het hun dagelijkse werk drastisch verandert.
Die landen zijn niet geslaagd omdat ze betere technologie hadden dan de VS. Ze slaagden omdat ze het makkelijker maakten voor ambtenaren om AI met vertrouwen te gebruiken. Duidelijke regels. Goedgekeurde tools. Zichtbare ondersteuning. De VS heeft het technologische voordeel — wat ontbreekt is de verbindende schakel.
De ontbrekende laag: AI-gegevensbeheer
De index laat zien dat Amerikaanse ambtenaren “duidelijke, praktische richtlijnen voor het toepassen van AI in de publieke sector” (38%) en “waarborg van gegevensprivacy en beveiliging” (34%) willen. Dit zijn geen abstracte voorkeuren. Ze wijzen op een fundamentele kloof onder elk ander adoptieprobleem: de meeste overheidsinstanties hebben geen zicht op welke data met AI-systemen wordt gedeeld.
Welke medewerkers gebruiken AI, en waarvoor? Bevatten AI-gegenereerde uitkomsten gevoelige informatie die niet extern gedeeld mag worden? Hoe handhaaf je gegevensclassificatiebeleid als AI-tools worden ingezet? Voor de meeste instanties is het eerlijke antwoord op al deze vragen: “we weten het niet”.
Hier worden AI-gegevensbeheerraamwerken essentieel — niet als barrière voor adoptie, maar als de basis die zelfverzekerde adoptie mogelijk maakt. Data security posture management (DSPM) kan gevoelige data in repositories ontdekken en classificeren, inclusief data die wordt ingevoerd in AI-systemen. Geautomatiseerde beleidsafdwinging kan bevoorrechte of vertrouwelijke data blokkeren voor AI-invoer op basis van classificatielabels. Uitgebreide auditlogs kunnen alle AI-data-interacties volgen. En in lijn met het NIST AI Risicobeheer Framework helpen deze mogelijkheden instanties om AI-risico’s te beheren, in kaart te brengen en te beheersen gedurende de hele datalevenscyclus.
De benodigde mogelijkheden om deze kloof te dichten zijn duidelijk: integratie van DSPM met geautomatiseerde beleidsafdwinging en onveranderlijke auditlogging, zodat organisaties data kunnen taggen op gevoeligheidsniveau — publiek, intern, vertrouwelijk, geclassificeerd — en deze classificaties automatisch afdwingen bij AI-gebruik. Elke AI-data-interactie moet worden vastgelegd met gebruikers-ID, tijdstip, geraadpleegde data en het gebruikte AI-systeem. Kiteworks’ Private Data Network biedt deze aanpak, en combineert deze mogelijkheden in één platform. Dit is niet alleen een compliance-oefening; het is de infrastructuur die zelfverzekerde AI-adoptie op schaal mogelijk maakt.
Zonder deze laag vliegen overheden blind op AI-risico. Met deze laag kunnen ze “ja” zeggen tegen AI-gebruik met het vertrouwen dat gevoelige data beschermd is — precies waar ambtenaren om vragen.
Waar Amerikaanse ambtenaren om vragen
Gevraagd wat hen zou aanmoedigen AI-tools vaker te gebruiken, waren Amerikaanse ambtenaren opvallend specifiek:
- Duidelijke, praktische richtlijnen voor het toepassen van AI in de publieke sector (38%)
- Gebruiksvriendelijkere tools die geen specialistische technische vaardigheden vereisen (36%)
- Waarborg van gegevensprivacy en beveiliging (34%)
- Training of bijscholing afgestemd op specifieke rollen (30%)
- Betere integratie met bestaande software en systemen (29%)
Let op wat niet bovenaan staat: een toegewijd budget (12%) en steun van het senior management (20%) staan onderaan. Ambtenaren vragen niet om grootschalige nieuwe programma’s of dure initiatieven. Ze vragen om duidelijkheid, gebruiksgemak en vertrouwen — zaken die via beleid, communicatie en slimme inkoop geleverd kunnen worden.
En let op hoe de top drie wensen — richtlijnen, gebruiksgemak en waarborg van gegevensbeveiliging — een samenhangend geheel vormen. Je kunt geen duidelijke richtlijnen geven zonder te weten wat veilig is. Je kunt geen privacy waarborgen zonder governance-infrastructuur. En je kunt tools niet gebruiksvriendelijk maken als ambtenaren verlamd zijn door onzekerheid of het gebruik ervan problemen oplevert. Eén aspect oplossen zonder de andere werkt niet.
Waarom integratie belangrijker is dan wat dan ook
De VS scoorde het laagst op integratie (39/100), en de indexdata laat zien waarom dat de belangrijkste maatstaf is.
In alle landen meldt 61% van de medewerkers in omgevingen met hoge integratie voordelen van AI-gebruik voor geavanceerd of technisch werk, tegenover slechts 17% waar integratie laag is. Integratie zorgt ook voor gelijkere kansen tussen leeftijdsgroepen: in omgevingen met hoge integratie meldt 58% van de ambtenaren van 55 jaar en ouder dat ze meer dan een uur tijd besparen met AI, tegenover slechts 16% in omgevingen met lage integratie. Als AI wordt verweven in de systemen die mensen al gebruiken, draait adoptie niet meer om tech-vaardigheid, maar om iedereen die beter wordt in zijn werk.
De VS staat momenteel aan het andere uiterste van dit spectrum. De index beschrijft “minimale formele infrastructuur, met weinig ondersteunende structuren, beperkte investeringen en aanzienlijke barrières voor integratie met bestaande systemen.” Totdat integratie verbetert, blijven de productiviteitswinsten die AI belooft geconcentreerd bij een kleine groep vroege gebruikers, in plaats van het hele personeelsbestand te versterken.
Drie prioriteiten die het tij kunnen keren
De index wijst op drie concrete acties die samen snel de AI-adoptie in de Amerikaanse publieke sector kunnen verhogen.
Ten eerste: stel een duidelijke opdracht van bovenaf — ondersteund door goedgekeurde, veilige infrastructuur. Ambtenaren hebben consistente, zichtbare geruststelling nodig dat AI-gebruik wordt aangemoedigd, ondersteund en in lijn is met publieke waarden. Maar toestemming zonder bescherming is roekeloos. Instanties moeten enterprise AI-oplossingen inzetten met gegevensbeschermingsovereenkomsten, governancecontroles en uitgebreide logging — zodat gevoelige data nooit het private netwerk verlaat. Platforms als de Secure MCP Server van Kiteworks laten zien hoe dit in de praktijk werkt: AI-productiviteit mogelijk maken met tools als Claude, ChatGPT en Copilot, terwijl de data governance-controles blijven voldoen aan federale eisen. Als ambtenaren weten dat de tools die ze gebruiken goedgekeurd, compliant en gemonitord zijn, volgt de culturele toestemming vanzelf.
Ten tweede: bouw vertrouwen op basis van bewijs en incident readiness. Veel Amerikaanse ambtenaren hebben nog geen duidelijke, rolgebonden voordelen van AI gezien. Het delen van concrete voorbeelden van tijdsbesparing, betere dienstverlening of betere besluitvorming helpt om AI tastbaar te maken. Maar vertrouwen vereist ook incident readiness. Stel je het scenario voor: een ambtenaar plakt per ongeluk duizenden burgerservicenummers in een publieke AI-tool. De data staat nu in de systemen van de aanbieder — mogelijk voor onbepaalde tijd opgeslagen. Kan de instantie beantwoorden wat er is blootgesteld, wanneer, door wie, en welke andere gevoelige data is gedeeld? Zonder onveranderlijke auditlogs, SIEM-integratie en chronologische documentatie is het antwoord nee. Incident response-mogelijkheden voor AI-specifieke scenario’s zijn niet optioneel — ze zijn de voorwaarde voor verantwoord gebruik.
Ten derde: bied praktische, rolgebonden training en richtlijnen. De bekendheid met AI is hoog in de VS, maar het vertrouwen niet. Korte, praktische training afgestemd op specifieke rollen kan dat gat overbruggen. Dit betekent expliciete toestemming voor laag-risicotaken — schrijven, onderzoek, samenvatten, brainstormen — samen met rolgebonden richtlijnen die laten zien hoe AI bestaande taken ondersteunt. Templates, gedeelde prompts en uitgewerkte voorbeelden maken adoptie concreet. Samenwerken met vertrouwde technologiepartners kan training op grote schaal mogelijk maken, en tegelijk de zekerheid bieden rond beveiliging en gegevensbescherming waar ambtenaren om vragen.
De inzet is groter dan de ranglijst
De zevende plaats van de VS in deze index is pijnlijk, maar de echte kosten zijn niet reputatiegebonden. Ze zijn operationeel. Elke dag dat ambtenaren geen veilige, goedgekeurde AI-tools hebben, is weer een dag dat overheidsdata via persoonlijke accounts zonder toezicht stroomt. Elke week zonder duidelijke richtlijnen is een week productiviteitswinst die verloren gaat. Elke maand zonder geïntegreerde AI-governance is een maand waarin de kloof tussen de Amerikaanse private sector en de publieke sector verder groeit.
Shadow AI is er al. Zeventig procent van de ambtenaren gebruikt AI; velen doen dat buiten goedgekeurde kanalen. Toegang beperken creëert meer risico, niet minder. De tools bestaan — wat ontbreekt is veilige, goedgekeurde infrastructuur, gekoppeld aan culturele toestemming en duidelijke richtlijnen.
De 301 Amerikaanse ambtenaren die in deze index zijn ondervraagd, geven een duidelijk signaal: geef ons de richtlijnen, geef ons de veilige tools, en laat ons ons werk doen. De vraag is of overheidsleiders luisteren — en of ze het shadow AI-probleem willen oplossen voordat het uitgroeit tot een volledige databeveiligingscrisis.
Veelgestelde vragen
De Public Sector AI Adoption Index 2026 is een wereldwijd onderzoek van Public First voor het Center for Data Innovation, gesponsord door Google. Er werden 3.335 ambtenaren in 10 landen ondervraagd — waaronder 301 in de Verenigde Staten — om te meten hoe AI wordt ervaren op de werkvloer van de overheid. De index beoordeelt landen op vijf dimensies: enthousiasme, empowerment, enablement, integratie en educatie, elk op een schaal van 0–100. Het gaat verder dan alleen meten of overheden AI-strategieën hebben, en kijkt of ambtenaren de tools, training, toestemming en infrastructuur hebben om AI effectief in hun dagelijkse rol te gebruiken.
De Verenigde Staten staan op de 7e plaats van 10 landen met een totaalscore van 45 uit 100. De hoogste scores zijn voor educatie (50/100) en enablement (45/100), wat duidt op beschikbare training en toegang tot tools, maar de laagste score is voor integratie (39/100), wat betekent dat AI zelden wordt geïntegreerd in dagelijkse werkprocessen. De VS loopt achter op koplopers als Saoedi-Arabië (66), Singapore (58) en India (58), maar ook op Zuid-Afrika (55) en Brazilië (49). De index typeert de VS als een “onevenwichtige adoptant” — een land met sterke AI-basis en activiteiten op instellingsniveau, maar tragere verspreiding naar zelfverzekerd, dagelijks gebruik door ambtenaren op de werkvloer.
Shadow AI verwijst naar ambtenaren die niet-goedgekeurde AI-tools gebruiken — vaak persoonlijke accounts voor diensten als ChatGPT — voor werktaken zonder dat hun organisatie daarvan op de hoogte is of toezicht houdt. De Public Sector AI Adoption Index toonde aan dat in omgevingen met lage enablement 64% van de enthousiaste AI-gebruikers vertrouwt op persoonlijke logins op het werk en 70% AI gebruikt zonder dat hun manager het weet. Dit creëert serieuze beveiligingsrisico’s voor overheidsinstanties: gevoelige burgerdata (PII/PHI, belastinggegevens, politiedata) kan worden ingevoerd in publieke large language models zonder audittrail, zonder gegevensbeschermingscontroles en zonder mogelijkheid om te bepalen wat er is blootgesteld bij een datalek. Shadow AI leidt ook tot mogelijke compliance-overtredingen van HIPAA, FISMA en staatsprivacywetten.
Volgens de index noemen Amerikaanse ambtenaren duidelijke, praktische richtlijnen voor AI-toepassing in de publieke sector (38%), gebruiksvriendelijkere tools die geen specialistische technische vaardigheden vereisen (36%) en waarborg van gegevensprivacy en beveiliging (34%) als hun top drie prioriteiten. Training afgestemd op specifieke rollen (30%) en betere integratie met bestaande systemen (29%) scoren ook hoog. Opvallend is dat een toegewijd budget voor AI-projecten onderaan staat met slechts 12%, en steun van het senior management slechts 20%. Dit suggereert dat de belangrijkste barrières voor adoptie niet financieel maar structureel zijn — ambtenaren hebben duidelijkheid nodig over wat is toegestaan, tools die veilig en intuïtief zijn, en vertrouwen dat AI-gebruik geen compliance- of loopbaanrisico oplevert.
De indexdata — en de ervaring van koplopers — suggereren dat instanties moeten verschuiven van het beperken van AI-toegang naar het veilig mogelijk maken ervan. Dit betekent het inzetten van goedgekeurde enterprise AI-tools met ingebouwde gegevensbeheercontroles, zoals platforms die gevoelige data binnen het private netwerk houden terwijl productiviteit met AI-assistenten als Claude, ChatGPT en Copilot mogelijk blijft. Instanties moeten data security posture management (DSPM) implementeren om gevoelige data te classificeren en beleid automatisch af te dwingen, onveranderlijke auditlogs bijhouden van alle AI-data-interacties, en incident response-mogelijkheden opzetten voor scenario’s met AI-datablootstelling. Oplossingen als de Secure MCP Server van Kiteworks, die FedRAMP Authorized is en aansluit bij het NIST AI Risicobeheer Framework, laten zien hoe instanties AI-productiviteit kunnen mogelijk maken zonder concessies te doen aan gegevensbeveiliging of compliance.
Saoedi-Arabië (66/100), Singapore (58/100) en India (58/100) zijn de best scorende landen in de index. Elk koos een andere route, maar ze delen gemeenschappelijke elementen: duidelijke regels over waarvoor ambtenaren AI wel en niet mogen gebruiken, goedgekeurde en veilige tools via de organisatie, en zichtbaar leiderschap dat AI als modernisering positioneert in plaats van als risico. Singapore bouwde gecentraliseerde platforms met gestandaardiseerde richtlijnen via het Smart Nation-initiatief. Saoedi-Arabië voerde een nationale top-downstrategie uit gekoppeld aan Vision 2030 met een organisatiebrede AI-uitrol. India stimuleerde adoptie via culturele dynamiek met gratis door de overheid aangeboden AI-cursussen en consequent positieve communicatie. Geen van deze landen had betere onderliggende AI-technologie dan de Verenigde Staten — ze slaagden door het voor ambtenaren makkelijker en veiliger te maken om elke dag “ja” te zeggen tegen AI.