Schaduw-AI-risico’s bij de overheid: de verborgen crisis oplossen
De Verenigde Staten herbergen het meest geavanceerde AI-ecosysteem ter wereld. Amerikaanse bedrijven bouwen de meest vooruitstrevende modellen. Amerikaanse onderzoekers publiceren baanbrekende artikelen. Amerikaans durfkapitaal stimuleert de volgende generatie AI-startups.
Toch blijft de VS, als het gaat om het toepassen van AI binnen de overheid, achter bij landen die het eigenlijk zou moeten overtreffen.
Belangrijkste inzichten
- Shadow AI is nu al een overheidsbreed beveiligingsrisico. In overheidsinstanties waar geen goedgekeurde AI-tools beschikbaar zijn, gebruikt 64% van de ambtenaren persoonlijke logins op het werk en gebruikt 70% AI zonder dat hun leidinggevende hiervan op de hoogte is. Overheidsdata — waaronder persoonlijk identificeerbare informatie van burgers, belastinggegevens en politiedossiers — stroomt door niet-gecontroleerde consumenten-AI-tools zonder audittrail, zonder toezicht en zonder incidentresponsmogelijkheden.
- De VS staan op de 7e plaats van 10 landen, ondanks hun leidende rol in wereldwijde AI-ontwikkeling. De Verenigde Staten scoorden slechts 45 van de 100 punten op de Public Sector AI Adoption Index en eindigden achter Zuid-Afrika en Brazilië. Het probleem is niet technologie — het is governance, heldere richtlijnen en een veilige infrastructuur die ambtenaren het vertrouwen geeft om AI als onderdeel van hun dagelijkse werk te gebruiken.
- AI-toegang beperken creëert meer risico dan het veilig mogelijk maken. Organisaties die voorzichtig willen zijn door AI-toegang te beperken, stoppen het gebruik niet — ze drijven het ondergronds. De indexdata tonen aan dat veilige inzet met goedgekeurde tools, gegevensbeheercontroles en uitgebreide auditlogs de enige aanpak is die risico’s vermindert en tegelijkertijd productiviteitswinst mogelijk maakt.
- AI integreren in werkprocessen ontsluit de echte waarde. De VS scoorden slechts 39 van de 100 punten op integratie — de laagste van alle vijf indexdimensies. Dat is belangrijk, want 61% van de ambtenaren in omgevingen met hoge integratie meldt voordelen van geavanceerd AI-gebruik, tegenover slechts 17% waar integratie laag is. Wanneer AI wordt geïntegreerd in de systemen die mensen al gebruiken, profiteren alle leeftijdsgroepen en vaardigheidsniveaus van de productiviteitswinst.
- Ambtenaren vragen niet om budget — ze vragen om duidelijkheid en veiligheid. Gevraagd naar wat vaker AI-gebruik zou stimuleren, zetten Amerikaanse ambtenaren heldere richtlijnen (38%), gebruiksvriendelijkere tools (36%) en waarborging van gegevensprivacy (34%) bovenaan. Een specifiek budget stond met 12% onderaan. De belemmeringen voor adoptie zijn op te lossen met beleid, communicatie en slimme inkoop — niet met enorme nieuwe uitgaven.
De Public Sector AI Adoption Index 2026, onlangs gepubliceerd door Public First voor het Center for Data Innovation met sponsoring van Google, ondervroeg 3.335 ambtenaren in 10 landen — waaronder 301 in de Verenigde Staten. De VS staan op de zevende plaats van de tien, met slechts 45 van de 100 punten. Daarmee staan ze onder Zuid-Afrika en Brazilië en ver achter koplopers als Singapore (58), Saoedi-Arabië (66) en India (58).
Dit is geen technologisch probleem. Het is een probleem van governance, beveiliging en leiderschap — en het creëert een enorm shadow AI-risico dat de meeste overheids-IT-leiders negeren.
De cijfers waar elke overheids-CISO wakker van zou moeten liggen
De index meet hoe ambtenaren AI ervaren op vijf dimensies: enthousiasme, informeren, faciliteren, versterken en integreren. Voor de VS schetsen de scores het beeld van een personeelsbestand dat toegang heeft tot AI, maar niet het vertrouwen, de duidelijkheid of de veilige infrastructuur heeft om het goed te gebruiken:
- Enthousiasme: 43/100 — een van de laagste scores wereldwijd. Veertig procent van de Amerikaanse ambtenaren omschrijft AI als “overweldigend”.
- Informeren: 50/100 — er is training, maar die is vooral inleidend en ongelijk verdeeld over organisaties.
- Versterken: 46/100 — meer dan een op de drie ambtenaren weet niet of hun organisatie überhaupt een formeel AI-beleid heeft.
- Faciliteren: 45/100 — tools zijn beschikbaar, maar “toegang” betekent niet “veilig” of “conform wet- en regelgeving”.
- Integreren: 39/100 — de laagste score van de vijf. AI-tools staan naast legacy-systemen in plaats van te zijn geïntegreerd in werkprocessen.
Bijna de helft van de Amerikaanse ambtenaren (45%) vindt dat hun organisatie “voorzichtig moet zijn om fouten te voorkomen”. Minder dan de helft voelt dat ze duidelijke instructies van het leiderschap krijgen over hoe AI gebruikt moet worden. Slechts 56% zegt zich zeker te voelen bij het gebruik van AI-tools.
Dit zijn niet de cijfers van een personeelsbestand dat zich verzet tegen AI. Dit zijn de cijfers van een personeelsbestand dat wacht tot iemand zegt dat het veilig is om verder te gaan.
De Shadow AI-tijdbom
Dit is het inzicht waar elke overheids-CISO van zou moeten schrikken.
In omgevingen met weinig facilitering binnen de index meldt 64% van de enthousiaste AI-gebruikers dat ze persoonlijke logins op het werk gebruiken, en 70% gebruikt AI voor werktaken zonder dat hun leidinggevende het weet.
Als overheden geen goedgekeurde AI-tools, duidelijke beleidsregels of toegankelijke ondersteuning bieden, stoppen ambtenaren niet met het gebruik van AI. Ze doen het gewoon zelf — buiten de kaders om. En de gevolgen zijn veel ernstiger dan een vinkje bij compliance.
Denk na over wat dit in de praktijk betekent voor federale agentschappen in de VS. Overheidsdata die via persoonlijke ChatGPT-accounts stroomt, zonder toezicht, zonder audittrail en zonder databeveiligingsmaatregelen. Gevoelige burgerinformatie — PII/PHI, belastinggegevens, politiedata — die mogelijk wordt ingevoerd in publieke LLM’s voor samenvattingen, analyses of het opstellen van teksten. Beleidsbeslissingen die worden beïnvloed door AI-tools die niet zijn gecontroleerd op nauwkeurigheid, bias of geschiktheid. En mogelijke compliance-overtredingen van HIPAA, FISMA en staatsprivacywetten — zonder forensisch bewijs om de omvang te bepalen.
De ironie is schrijnend. Organisaties die “voorzichtig” willen zijn door toegang tot AI te beperken, creëren veel meer risico dan organisaties die goedgekeurde tools bieden met duidelijke gebruiksinstructies. De indexdata bevestigen dit in elk onderzocht land.
Hier moet het gesprek verschuiven van “moeten we AI toestaan” naar “hoe maken we AI veilig mogelijk”. Oplossingen zoals de Secure MFT Server van Kiteworks zijn het type infrastructuur dat deze kloof kan overbruggen — AI-productiviteit mogelijk maken met tools als Claude, ChatGPT en Copilot, terwijl gevoelige data binnen het private netwerk blijft. Bestaande governance-frameworks (RBAC/ABAC) zijn van toepassing op alle AI-interacties, elke AI-operatie wordt gelogd voor compliance en forensisch onderzoek, en gevoelige inhoud verlaat nooit de vertrouwde omgeving. Voor federale agentschappen betekent FedRAMP Matige Autorisatie en aansluiting bij de White House AI-memoranda en het NIST AI Risicobeheer Framework dat deze beschermingen direct aansluiten op bestaande compliance-verplichtingen.
Het alternatief — doen alsof het beperken van toegang het gebruik zal stoppen — is een illusie die de indexdata nu met harde cijfers hebben weerlegd.
De vertaalkloof: federale ambitie versus de praktijk op de werkvloer
De federale overheid heeft niet stilgezeten. Bijna 90% van de federale agentschappen gebruikt al op een of andere manier AI, volgens recent onderzoek van Google. Executive Orders van het Witte Huis en het Amerikaanse AI-actieplan hebben AI tot strategische prioriteit gemaakt. Het Office of Management and Budget heeft bijgewerkte richtlijnen uitgevaardigd over AI-governance en inkoop. CIO’s van staten hebben AI als hun belangrijkste prioriteit voor 2026 aangemerkt, en meer dan 90% van de staten is ten minste bezig met AI-pilots.
De bouwstenen zijn dus aanwezig. Maar de index onthult een duidelijke vertaalkloof tussen activiteiten op agentschapsniveau en de ervaring op de werkvloer.
Amerikaanse ambtenaren rapporteren een van de hoogste niveaus van persoonlijke AI-ervaring in de index. Zesentachtig procent zegt AI in hun privéleven te gebruiken, en bijna driekwart (72%) van hen gebruikt AI ook op het werk. Bijna negen op de tien (89%) die AI op het werk gebruiken, hebben toegang tot tools via hun organisatie. Ongeveer een derde (32%) heeft toegang tot AI-tools op enterpriseniveau — een hoger aandeel dan in veel andere landen.
Maar die toegang heeft niet geleid tot zelfverzekerd, enthousiast gebruik. De VS scoorden slechts 43/100 op enthousiasme — wat betekent dat de meeste ambtenaren nog geen duidelijke, rolgebonden voordelen zien in hun dagelijkse taken. AI wordt vaker omschreven als overweldigend dan als versterkend. Minder medewerkers melden tastbare voordelen zoals tijdsbesparing of AI als effectieve assistent.
En de “toegang” die er is, mist vaak de beveiligings- en governancecontroles die federale omgevingen vereisen. De meeste agentschappen bieden generieke AI-tools zonder dataprotectieovereenkomsten. Er zijn geen audittrails die bijhouden welke data met AI-systemen is gedeeld, wanneer of door wie. Er is geen mogelijkheid om toegang in te trekken of data uit AI-trainingssets te verwijderen achteraf. De faciliteringsscore weerspiegelt beschikbaarheid, geen veiligheid — en dat verschil is enorm belangrijk als het om overheidsdata gaat.
Vergelijk dit met wat de koplopers hebben opgebouwd. In Singapore weet 73% van de ambtenaren precies waarvoor ze AI wel en niet mogen gebruiken, en 58% weet exact bij wie ze terecht kunnen bij problemen. In Saoedi-Arabië heeft een nationale top-downstrategie AI gepositioneerd als modernisering in plaats van verstoring, met 65% die toegang heeft tot AI-tools op enterpriseniveau en 79% die AI gebruikt voor geavanceerde of technische taken. In India is 83% van de ambtenaren optimistisch over AI en wil 59% dat het hun dagelijkse werk drastisch verandert.
Die landen zijn niet geslaagd omdat ze betere technologie hadden dan de VS. Ze zijn geslaagd omdat ze het voor ambtenaren makkelijker maakten om AI met vertrouwen te gebruiken. Duidelijke regels. Goedgekeurde tools. Zichtbare ondersteuning. De VS hebben het technologische voordeel — wat ontbreekt is de verbindende schakel.
De ontbrekende laag: AI-gegevensbeheer
Uit de index blijkt dat Amerikaanse ambtenaren behoefte hebben aan “duidelijke, praktische richtlijnen voor het toepassen van AI in de publieke sector” (38%) en “waarborging van gegevensprivacy en beveiliging” (34%). Dit zijn geen abstracte voorkeuren. Ze wijzen op een fundamentele lacune die onder elk ander adoptieprobleem ligt: de meeste overheidsinstanties hebben geen zicht op welke data met AI-systemen wordt gedeeld.
Welke medewerkers gebruiken AI en waarvoor? Bevatten AI-gegenereerde uitkomsten gevoelige informatie die niet extern gedeeld mag worden? Hoe handhaaf je dataclassificatiebeleid als AI-tools worden ingezet? Voor de meeste agentschappen is het eerlijke antwoord op al deze vragen: “we weten het niet”.
Hier zijn AI-gegevensbeheerframeworks essentieel — niet als belemmering voor adoptie, maar als de basis die zelfverzekerde adoptie mogelijk maakt. Data Security Posture Management (DSPM) kan gevoelige data ontdekken en classificeren in alle repositories, inclusief data die in AI-systemen wordt ingevoerd. Geautomatiseerde beleidsafdwinging kan bevoorrechte of vertrouwelijke data blokkeren voor AI-invoer op basis van classificatielabels. Uitgebreide auditlogs kunnen alle AI-datainteracties volgen. En in lijn met het NIST AI Risicobeheer Framework helpen deze mogelijkheden agentschappen AI-risico’s te beheren, in kaart te brengen en te beheersen gedurende de hele levenscyclus van data.
De aanpak van Kiteworks bij deze uitdaging is illustratief. Door DSPM te integreren met geautomatiseerde beleidsafdwinging en onveranderlijke auditlogging, kunnen organisaties data taggen op gevoeligheidsniveau — publiek, intern, vertrouwelijk, geclassificeerd — en die classificaties automatisch afdwingen wanneer AI-tools worden gebruikt. Elke AI-datainteractie wordt vastgelegd met gebruikers-ID, tijdstip, geraadpleegde data en het gebruikte AI-systeem. Dit is niet alleen een compliance-oefening; het is de infrastructuur die zelfverzekerde AI-adoptie op schaal mogelijk maakt.
Zonder deze laag vliegen overheden blind op AI-risico’s. Met deze laag kunnen ze vol vertrouwen “ja” zeggen tegen AI-gebruik, wetende dat gevoelige data beschermd is — precies waar ambtenaren om vragen.
Wat Amerikaanse ambtenaren vragen
Gevraagd wat hen zou stimuleren om AI-tools vaker te gebruiken, waren Amerikaanse ambtenaren opvallend concreet:
- Duidelijke, praktische richtlijnen voor het toepassen van AI in de publieke sector (38%)
- Gebruiksvriendelijkere tools die geen specialistische technische vaardigheden vereisen (36%)
- Waarborging van gegevensprivacy en beveiliging (34%)
- Training of bijscholing op maat van specifieke rollen (30%)
- Betere integratie met bestaande software en systemen (29%)
Let op wat niet bovenaan de lijst staat: Specifiek budget (12%) en steun van het senior management (20%) staan onderaan. Ambtenaren vragen niet om grootschalige nieuwe programma’s of dure initiatieven. Ze vragen om duidelijkheid, gebruiksgemak en vertrouwen — zaken die via beleid, communicatie en slimme inkoop gerealiseerd kunnen worden.
En let op hoe de top drie verzoeken — richtlijnen, gebruiksgemak en waarborging van databeveiliging — een samenhangend geheel vormen. Je kunt geen duidelijke richtlijnen geven zonder te weten wat veilig is. Je kunt geen privacy waarborgen zonder governance-infrastructuur. En je kunt tools niet gebruiksvriendelijk maken als ambtenaren verlamd zijn door onzekerheid of het gebruik ervan problemen oplevert. Eén oplossen zonder de andere werkt niet.
Waarom integratie belangrijker is dan wat dan ook
De VS scoorden het laagst op integratie (39/100), en de indexdata laten zien waarom dat de belangrijkste maatstaf is.
In alle landen rapporteert 61% van de medewerkers in omgevingen met hoge integratie voordelen van AI-gebruik voor geavanceerd of technisch werk, tegenover slechts 17% waar integratie laag is. Integratie maakt het speelveld ook gelijker tussen leeftijdsgroepen: in omgevingen met hoge integratie meldt 58% van de ambtenaren van 55 jaar en ouder dat ze meer dan een uur tijd besparen met AI, tegenover slechts 16% in omgevingen met lage integratie. Wanneer AI wordt verweven in de systemen die mensen al gebruiken, draait adoptie niet langer om technische vaardigheden, maar om iedereen die beter wordt in zijn werk.
De VS staan momenteel aan het andere uiterste van dit spectrum. De index beschrijft “minimale formele infrastructuur, met weinig ondersteunende structuren, beperkte investeringen en aanzienlijke barrières voor integratie met bestaande systemen.” Totdat integratie verbetert, blijven de productiviteitswinsten die AI belooft geconcentreerd bij een kleine groep vroege gebruikers, in plaats van het hele personeelsbestand te versterken.
Drie prioriteiten die het verschil kunnen maken
De index wijst op drie concrete acties die de adoptie van AI in de Amerikaanse publieke sector snel kunnen versnellen als ze samen worden opgepakt.
Ten eerste: stel een duidelijke opdracht van bovenaf — ondersteund door goedgekeurde, veilige infrastructuur. Ambtenaren hebben consistente, zichtbare geruststelling nodig dat AI-gebruik wordt aangemoedigd, ondersteund en in lijn is met publieke waarden. Maar toestemming zonder bescherming is roekeloos. Agentschappen moeten enterprise AI-oplossingen inzetten met dataprotectieovereenkomsten, governancecontroles en uitgebreide logging — zodat gevoelige data nooit het private netwerk verlaat. Platforms zoals de Secure MCP Server van Kiteworks laten zien hoe dit in de praktijk werkt: AI-productiviteit mogelijk maken met tools als Claude, ChatGPT en Copilot, terwijl de databeheercontroles behouden blijven die federale agentschappen eisen. Als ambtenaren weten dat de tools die ze gebruiken goedgekeurd, compliant en gemonitord zijn, volgt de culturele toestemming vanzelf.
Ten tweede: bouw vertrouwen op basis van bewijs en incidentgereedheid. Veel Amerikaanse ambtenaren hebben nog geen duidelijke, rolgebonden voordelen van AI gezien. Het delen van concrete voorbeelden waar AI administratieve lasten heeft verminderd, dienstverlening heeft verbeterd of betere besluitvorming heeft ondersteund, helpt AI tastbaar te maken. Maar vertrouwen vereist ook weten wat er gebeurt als er iets misgaat. Stel je het scenario voor: een ambtenaar plakt per ongeluk duizenden burgerservicenummers in een publieke AI-tool voor data-analyse. De data staat nu in de systemen van de aanbieder — mogelijk voor onbepaalde tijd opgeslagen of toegankelijk voor andere gebruikers. Kan de instantie aangeven wat is blootgesteld, wanneer, door wie, en welke andere gevoelige data is gedeeld? Zonder onveranderlijke auditlogs, SIEM-integratie voor realtime monitoring en chronologische documentatie is het antwoord nee. Incidentresponsmogelijkheden voor AI-specifieke scenario’s zijn niet optioneel — ze zijn de toegangsprijs voor verantwoord gebruik.
Ten derde: bied praktische, rolgebonden training en begeleiding. De bekendheid met AI is groot in de VS, maar het vertrouwen niet. Korte, praktische trainingen op maat van specifieke rollen kunnen dat gat overbruggen. Dit betekent expliciete toestemming voor laag-risicotaken — schrijven, onderzoek, samenvatten, brainstormen — samen met rolgebonden begeleiding die laat zien hoe AI bestaande taken ondersteunt. Templates, gedeelde prompts en uitgewerkte voorbeelden maken adoptie concreet. Samenwerken met vertrouwde technologiepartners kan training op schaal mogelijk maken, terwijl ook de zekerheid rond beveiliging en dataprotectie wordt geboden waar ambtenaren om vragen.
De inzet is groter dan de ranglijst
De VS op de zevende plaats in deze index is pijnlijk, maar de echte schade is niet reputatie. Het is operationeel. Elke dag dat ambtenaren geen veilige, goedgekeurde AI-tools hebben, is weer een dag dat overheidsdata via persoonlijke accounts zonder toezicht stroomt. Elke week zonder duidelijke richtlijnen is een week waarin productiviteitswinst blijft liggen. Elke maand zonder geïntegreerd AI-beheer is een maand waarin de kloof tussen de private sector en de publieke sector in de VS groter wordt.
Shadow AI is er al. Zeventig procent van de ambtenaren gebruikt AI; velen doen dat buiten goedgekeurde kanalen. Toegang beperken creëert meer risico, niet minder. De tools bestaan — wat ontbreekt is veilige, goedgekeurde infrastructuur, gekoppeld aan culturele toestemming en heldere richtlijnen.
De 301 Amerikaanse ambtenaren die in deze index zijn ondervraagd, geven een duidelijke boodschap: Geef ons de richtlijnen, geef ons de veilige tools en ga uit de weg. De vraag is of overheidsleiders luisteren — en of ze bereid zijn het shadow AI-probleem op te lossen voordat het uitgroeit tot een volledige databeveiligingscrisis.
Veelgestelde vragen
De Public Sector AI Adoption Index 2026 is een wereldwijd onderzoek van Public First voor het Center for Data Innovation, gesponsord door Google. Er werden 3.335 ambtenaren in 10 landen ondervraagd — waaronder 301 in de Verenigde Staten — om te meten hoe AI wordt ervaren op de werkvloer bij de overheid. De index beoordeelt landen op vijf dimensies: enthousiasme, informeren, versterken, faciliteren en integreren, elk op een schaal van 0–100. Het onderzoek gaat verder dan alleen het meten of overheden AI-strategieën hebben, en kijkt of ambtenaren de tools, training, toestemming en infrastructuur hebben om AI effectief te gebruiken in hun dagelijkse werkzaamheden.
De Verenigde Staten staan op de 7e plaats van 10 landen met een totaalscore van 45 op 100. De hoogste scores zijn voor informeren (50/100) en faciliteren (45/100), wat wijst op beschikbare training en toegang tot tools, maar de laagste score is voor integreren (39/100), wat betekent dat AI zelden is geïntegreerd in dagelijkse werkprocessen. De VS blijven achter bij koplopers als Saoedi-Arabië (66), Singapore (58) en India (58), maar ook bij Zuid-Afrika (55) en Brazilië (49). De index typeert de VS als een “onevenwichtige adoptant” — een land met sterke AI-basis en activiteit op agentschapsniveau, maar tragere verspreiding naar zelfverzekerd, dagelijks gebruik door ambtenaren op de werkvloer.
Shadow AI verwijst naar ambtenaren die niet-goedgekeurde AI-tools gebruiken — vaak persoonlijke accounts voor diensten als ChatGPT — voor werktaken zonder medeweten of toezicht van hun organisatie. Uit de Public Sector AI Adoption Index blijkt dat in omgevingen met weinig facilitering 64% van de enthousiaste AI-gebruikers op het werk vertrouwt op persoonlijke logins en 70% AI gebruikt zonder dat hun leidinggevende het weet. Dit creëert serieuze beveiligingsrisico’s voor overheidsinstanties: gevoelige burgerdata (PII/PHI, belastinggegevens, informatie van wetshandhaving) kan worden ingevoerd in publieke large language models zonder audittrail, zonder dataprotectiecontroles en zonder de mogelijkheid om te bepalen wat is blootgesteld bij een datalek. Shadow AI leidt ook tot mogelijke compliance-overtredingen van HIPAA, FISMA en staatsprivacywetten.
Volgens de index noemen Amerikaanse ambtenaren duidelijke, praktische richtlijnen voor het toepassen van AI in de publieke sector (38%), gebruiksvriendelijkere tools die geen specialistische technische vaardigheden vereisen (36%) en waarborging van gegevensprivacy en beveiliging (34%) als hun top drie prioriteiten. Training op maat van specifieke rollen (30%) en betere integratie met bestaande systemen (29%) scoren ook hoog. Opvallend is dat een specifiek budget voor AI-projecten met slechts 12% onderaan staat, en steun van het senior management slechts 20% scoort. Dit suggereert dat de belangrijkste belemmeringen voor adoptie niet financieel zijn, maar structureel — ambtenaren hebben duidelijkheid nodig over wat is toegestaan, tools die veilig en intuïtief zijn, en vertrouwen dat AI-gebruik geen compliance- of loopbaanrisico oplevert.
De indexdata — en de ervaringen van koplopers — suggereren dat instanties moeten overstappen van het beperken van AI-toegang naar het veilig mogelijk maken ervan. Dit betekent het inzetten van goedgekeurde enterprise AI-tools met ingebouwde gegevensbeheercontroles, zoals platforms die gevoelige data binnen het private netwerk houden en tegelijkertijd productiviteit mogelijk maken met AI-assistenten als Claude, ChatGPT en Copilot. Instanties moeten Data Security Posture Management (DSPM) implementeren om gevoelige data te classificeren en beleid automatisch af te dwingen, onveranderlijke auditlogs bijhouden van alle AI-datainteracties en incidentresponsmogelijkheden opzetten voor scenario’s waarin AI-data wordt blootgesteld. Oplossingen zoals de Secure MCP Server van Kiteworks, die FedRAMP Matige Autorisatie heeft en is afgestemd op het NIST AI Risicobeheer Framework, laten zien hoe instanties AI-productiviteit kunnen realiseren zonder concessies te doen aan databeveiliging of compliance.
Saoedi-Arabië (66/100), Singapore (58/100) en India (58/100) zijn de best scorende landen in de index. Elk volgde een ander pad, maar met gemeenschappelijke elementen: duidelijke regels over waarvoor ambtenaren AI wel en niet mogen gebruiken, goedgekeurde en veilige tools via de organisatie en zichtbaar leiderschap dat AI als modernisering in plaats van risico positioneerde. Singapore bouwde gecentraliseerde platforms met gestandaardiseerde richtlijnen via het Smart Nation-initiatief. Saoedi-Arabië voerde een nationale top-downstrategie uit gekoppeld aan Vision 2030 met een enterprisewijde AI-uitrol. India stimuleerde adoptie door culturele momentum met gratis AI-cursussen van de overheid en consequent positieve communicatie. Geen van deze landen had betere onderliggende AI-technologie dan de Verenigde Staten — ze slaagden door het voor ambtenaren makkelijker en veiliger te maken om dagelijks “ja” te zeggen tegen AI.