Frankrijk loopt achter bij AI-adoptie in de publieke sector: Laatste plaats onthuld
Frankrijk heeft op papier bijna alles goed gedaan. Een Nationale AI-strategie sinds 2018. Miljarden geïnvesteerd via France 2030. Onderzoeksinstituten van wereldklasse. Een ’trusted AI’-raamwerk dat nauw aansluit bij de EU AI-wet. Een uitgesproken inzet voor technologische soevereiniteit en modernisering van de publieke dienstverlening.
Belangrijkste inzichten
- Frankrijk staat helemaal onderaan qua AI-adoptie in de publieke sector — ondanks een vroege start. Frankrijk scoorde slechts 42 van de 100 punten op de Public Sector AI Adoption Index en eindigde als 10e van de 10 onderzochte landen. Dit ondanks de lancering van de Nationale AI-strategie in 2018, forse investeringen via France 2030 en een van Europa’s sterkste AI-onderzoeksnetwerken. Strategie is niet vertaald naar de praktijk op de werkvloer.
- Bijna de helft van de Franse ambtenaren heeft nog nooit AI op het werk gebruikt. Ongeveer 45% van de Franse ambtenaren geeft aan nooit AI-tools te hebben gebruikt in hun functie — het laagste adoptieprofiel in de hele index. Meer dan de helft zegt dat het gebruik van AI het afgelopen jaar is gestagneerd of zelfs afgenomen, wat wijst op een personeelsbestand dat niet alleen voorzichtig is, maar zich zelfs terugtrekt.
- Twee derde van de Franse ambtenaren heeft geen enkele AI-training gevolgd. 66% geeft aan geen training te hebben gehad over het gebruik van AI. Meer dan 1 op de 3 weet niet goed wat ze wel en niet met AI mogen doen op het werk. Zonder training of begeleiding hebben zelfs gemotiveerde ambtenaren geen toegang tot adoptie — en nemen de risico’s van shadow AI toe door ongecontroleerde experimenten.
- Frankrijk zit vast in een zichzelf versterkende cyclus van lage adoptie. Zwakke verankering beperkt adoptie. Lage adoptie beperkt zichtbare voordelen. Het ontbreken van voordelen houdt het lage optimisme in stand. Frankrijk is het minst optimistische land in de index: slechts 33% van de ambtenaren is positief over AI in de publieke sector. Bijna 1 op de 3 gelooft dat niets van hun werk door AI kan worden uitgevoerd.
- Bijna 6 op de 10 Franse ambtenaren hebben nog nooit AI met een collega besproken. 58% zegt nooit met een collega over AI te hebben gesproken of collega’s enthousiast te hebben zien reageren. Zonder onderlinge gesprekken, gedeeld leren of zichtbare succesverhalen zijn er nauwelijks informele routes waarlangs vertrouwen of nieuwsgierigheid over AI kan ontstaan.
En toch, als het gaat om de dagelijkse AI-ervaring van ambtenaren, eindigde Frankrijk als laatste.
De Public Sector AI Adoption Index 2026, uitgebracht door Public First voor het Center for Data Innovation met sponsoring van Google, ondervroeg 3.335 ambtenaren in 10 landen — waaronder 342 in Frankrijk. Frankrijk scoorde 42 van de 100 punten en werd 10e van de 10. Achter Japan. Achter Duitsland. Achter elk ander land in het onderzoek.
Voor een land dat zichzelf als Europese AI-leider positioneert, vraagt dat resultaat om uitleg. De data geeft die — en het heeft minder te maken met technologie dan met wat er gebeurt als strategie nooit de mensen bereikt die ze moet dienen.
De cijfers achter de laatste plaats van Frankrijk
De index meet hoe ambtenaren AI ervaren op vijf dimensies: enthousiasme, educatie, enablement, empowerment en embedding. Voor Frankrijk vertelt elke score hetzelfde verhaal — een personeelsbestand dat is achtergelaten door de ambitie van de eigen overheid:
- Enthousiasme: 46/100 — Frankrijk is het minst optimistische land in de index. Slechts 33% van de ambtenaren is positief over AI in de publieke sector. Bijna 1 op de 3 gelooft dat niets van hun werk door AI kan worden uitgevoerd.
- Educatie: 46/100 — Twee derde (66%) van de ambtenaren geeft aan geen enkele AI-training te hebben gehad. Meer dan 1 op de 3 weet niet goed wat ze wel en niet met AI mogen doen op het werk.
- Empowerment: 39/100 — Meer dan 2 op de 5 weten niet eens of hun werkplek een beleid heeft voor AI-gebruik. Meer dan 50% is het er niet mee eens dat leiders duidelijke communicatie of richting geven over AI.
- Enablement: 42/100 — Slechts 27% zegt dat hun organisatie in AI-tools heeft geïnvesteerd. Toegang tot AI-tools van ondernemingsniveau of intern ontwikkelde AI is minimaal. Technische ondersteuning ontbreekt vaak.
- Embedding: 36/100 — de laagste embedding-score in de hele index. Organisatiestructuren om opschaling te ondersteunen zijn zwak. AI staat los van routinematige workflows in plaats van daarin geïntegreerd te zijn.
45% van de Franse ambtenaren heeft nog nooit AI in hun functie gebruikt. Meer dan de helft zegt dat het gebruik van AI het afgelopen jaar is gestagneerd of afgenomen. 58% heeft zelfs nooit AI met een collega besproken.
Dit zijn niet de cijfers van een personeelsbestand dat AI heeft afgewogen en afgewezen. Dit zijn de cijfers van een personeelsbestand dat nauwelijks de kans heeft gekregen om het te proberen.
Het shadow AI-risico waar Frankrijk niet over praat
Hier is de wereldwijde bevinding uit de index waar Franse overheidsleiders op het gebied van beveiliging naar moeten kijken.
In omgevingen met weinig enablement in de index meldt 64% van de enthousiaste AI-gebruikers persoonlijke logins te gebruiken op het werk, en 70% gebruikt AI voor werk zonder dat hun manager het weet.
Frankrijks enablement-score is 42/100. De empowerment-score is 39/100. Slechts 27% van de organisaties heeft geïnvesteerd in AI-tools. Meer dan 2 op de 5 ambtenaren weten niet of hun werkplek een AI-beleid heeft. Precies dat is de omgeving waar shadow AI wortel schiet.
De index noemt één belangrijk verschil voor Frankrijk: In de compliancegerichte cultuur van Duitsland ontmoedigen onduidelijke regels het gebruik volledig. In Frankrijk is het beeld gemengder — hoewel de adoptie laag is, gebruiken degenen die AI inzetten dit vaak zonder organisatorische ondersteuning of zichtbaarheid. Bijna 1 op de 3 ambtenaren zegt dat hun werkplek het actief moeilijk maakt om AI te gebruiken waar het nuttig zou zijn, wat wijst op een personeelsbestand waarin gemotiveerde individuen institutionele barrières omzeilen in plaats van ze te doorbreken.
Denk na over wat dit in de praktijk betekent. Ambtenaren die persoonlijke ChatGPT- of Mistral-accounts gebruiken om beleidsdocumenten op te stellen, dossiers samen te vatten of datasets met burgerinformatie te analyseren. Gevoelige data — beschermd onder GDPR, de EU AI-wet en de Franse Loi Informatique et Libertés — die mogelijk in publieke large language models terechtkomt zonder audittrail, zonder dataclassificatiecontroles en zonder mogelijkheid om achteraf te bepalen wat er is blootgesteld.
De ironie is herkenbaar uit elk land in deze index. Organisaties die voorzichtig willen zijn met AI door toegang te beperken of te zwijgen over permissies, voorkomen het gebruik van AI niet. Ze drijven het ondergronds — en creëren zo veel meer AI-risico dan organisaties die goedgekeurde tools met duidelijke gebruiksinstructies aanbieden.
Hier moet het gesprek verschuiven van “mogen we AI toestaan” naar “hoe maken we AI veilig mogelijk”. Oplossingen zoals De vicieuze cirkel: waarom Frankrijk vastzit
De index identificeert een zichzelf versterkend patroon in Frankrijk dat nergens anders in het onderzoek in deze vorm voorkomt. Zwakke embedding beperkt adoptie. Lage adoptie beperkt zichtbare voordelen. Het ontbreken van zichtbare voordelen houdt het lage optimisme in stand. En laag optimisme haalt de culturele druk weg die organisaties anders zou aanzetten tot investeren in tools, training en begeleiding. De cijfers laten deze cyclus duidelijk zien. Met slechts 27% van de organisaties die investeren in AI-tools en minimale integratie met bestaande systemen, hebben de meeste Franse ambtenaren nooit gezien dat AI tijd bespaart, beslissingen verbetert of dienstverlening versterkt. De waarde blijft abstract. En als waarde abstract aanvoelt, ontbreekt de urgentie om te handelen. Vergelijk dit met wat de koplopers hebben opgebouwd. In Singapore weet 73% van de ambtenaren precies wat ze wel en niet met AI mogen doen, en 58% weet exact bij wie ze terechtkunnen bij problemen. In Saoedi-Arabië heeft 65% toegang tot AI-tools op ondernemingsniveau en gebruikt 79% AI voor geavanceerde of technische taken. In India is 83% optimistisch over AI en wil 59% dat het hun dagelijkse werk ingrijpend verandert. Die landen doorbraken de cyclus door AI tastbaar te maken — ambtenaren tools, training en toestemming tegelijk te geven in plaats van na elkaar. Frankrijk heeft de strategie. Het heeft het ethische raamwerk. Wat ontbreekt is AI daadwerkelijk in handen geven van ambtenaren, zodat ze kunnen ervaren wat het kan. Frankrijks sterke nadruk op trusted AI en afstemming met de EU AI-wet biedt een solide beleidsbasis. Maar beleidskaders alleen beschermen burgerdata niet als ambtenaren ongeautoriseerde tools gebruiken zonder toezicht. De meeste Franse overheidsorganisaties hebben geen zicht op welke data met AI-systemen wordt gedeeld. Welke ambtenaren gebruiken AI, en waarvoor? Of AI-gegenereerde output gevoelige informatie bevat die niet extern gedeeld mag worden? Hoe dataclassificatiebeleid te handhaven als AI-tools worden ingezet? Voor de meeste organisaties is het antwoord: “we weten het niet”. Hier worden AI-gegevensbeheer-raamwerken essentieel — niet als nog een compliance-laag, maar als de infrastructuur die zelfverzekerde adoptie mogelijk maakt binnen de bestaande vereisten voor naleving van regelgeving in Frankrijk. Data security posture management (DSPM) kan gevoelige data ontdekken en classificeren in alle repositories, inclusief data die in AI-systemen wordt ingevoerd. Geautomatiseerde beleidsafdwinging kan bevoorrechte of vertrouwelijke data blokkeren voor AI-invoer op basis van classificatielabels. Uitgebreide audit logs kunnen alle AI-data-interacties volgen. En in lijn met GDPR, de EU AI-wet en de Franse Loi Informatique et Libertés helpen deze mogelijkheden organisaties AI-risico’s te beheersen gedurende de hele levenscyclus van data. Kiteworks’ aanpak van deze uitdaging is leerzaam. Door DSPM te integreren met geautomatiseerde beleidsafdwinging en onveranderlijke audit logs, kunnen organisaties data taggen op gevoeligheidsniveau en deze classificaties automatisch afdwingen bij inzet van AI-tools. Elke AI-data-interactie wordt vastgelegd met gebruikers-ID, tijdstip, geraadpleegde data en het gebruikte AI-systeem. Voor Frankrijk — waar overlappende vereisten voor naleving van regelgeving tussen de EU AI-wet, GDPR en nationale wetgeving het waargenomen risico van experimenteren verhogen — verandert dit soort infrastructuur compliance van een belemmering in een aanjager. De data uit de index is consistent: Ambtenaren vragen niet om grootschalige nieuwe programma’s of enorme budgetten. Ze vragen om duidelijkheid, gebruiksgemak en vertrouwen. In Duitsland — de naaste collega van Frankrijk in de voorzichtige adopter-categorie — noemen ambtenaren privacygarantie (38%) en duidelijke richtlijnen voor AI-toepassing (37%) als de belangrijkste factoren die groter gebruik zouden stimuleren. Dit patroon geldt in elk land: Duidelijke richtlijnen, eenvoudigere tools en zekerheid over gegevensbeveiliging staan steevast in de top drie van bevorderende factoren. Een apart budget staat onderaan. Specifiek in Frankrijk wijst de index op een nog fundamenteler gat: relevantie. Veel ambtenaren zien niet hoe AI op hun functie van toepassing is. 31% gelooft dat niets van hun werk door AI kan worden uitgevoerd. 44% zegt dat slechts een klein deel van hun werk zou kunnen profiteren. Snelle, praktische training gericht op concrete use cases — opstellen, analyse, dossierbeheer, dienstverlening — is essentieel om deze perceptiekloof te dichten voordat scepticisme permanent wordt. Frankrijk scoorde 36/100 op embedding — de laagste score van elk land op elke dimensie in de hele index. En de wereldwijde data laat zien waarom dat de belangrijkste graadmeter is. In alle landen meldt 61% van de werknemers in omgevingen met hoge embedding voordelen van AI-gebruik voor geavanceerd of technisch werk, tegenover slechts 17% waar embedding laag is. Embedding zorgt ook voor gelijkere kansen tussen leeftijdsgroepen: In omgevingen met hoge embedding zegt 58% van de ambtenaren van 55 jaar en ouder meer dan een uur tijd te besparen met AI, tegenover slechts 16% in omgevingen met lage embedding. Frankrijk zit aan het uiterste lage uiteinde van dit spectrum. Totdat AI is verweven in de systemen en workflows die ambtenaren al gebruiken, blijft de productiviteitsbelofte van de Franse AI-strategie volledig theoretisch — en blijft de vicieuze cirkel van lage adoptie, lage zichtbaarheid en laag optimisme onverminderd doorgaan. De index wijst op drie acties die samen — en met urgentie — het tij voor Frankrijk kunnen keren. Ten eerste, geef snel duidelijke toestemming en bied veilige infrastructuur. Ambtenaren hebben nu ondubbelzinnige signalen nodig dat AI-gebruik wordt verwacht, ondersteund en veilig is. Voortdurende onduidelijkheid versterkt aarzeling en terugtrekking. Leidinggevenden moeten duidelijk maken dat AI kan en mag worden gebruikt voor dagelijkse, laag-risico taken, ondersteund door eenvoudige richtlijnen die angst voor non-compliance wegnemen. Maar toestemming zonder bescherming creëert risico. Organisaties moeten AI-oplossingen op ondernemingsniveau inzetten met AI-gegevensbeschermingscontroles, governance-raamwerken en uitgebreide logging. Platforms zoals Kiteworks’ Secure MCP Server laten zien hoe dit in de praktijk werkt: AI-productiviteit mogelijk maken met tools als Claude, ChatGPT en Copilot, terwijl de AI-gegevensbeheercontroles worden gehandhaafd die Franse overheidsorganisaties vereisen onder GDPR, de EU AI-wet en nationale wetgeving. Ten tweede, verbind AI snel met echte functies en taken — met incident response paraatheid ingebouwd. Het kernprobleem in Frankrijk is relevantie. Veel ambtenaren zien niet hoe AI op hun functie van toepassing is. Snelle, praktische training gericht op concrete use cases — opstellen, analyse, dossierbeheer, dienstverlening — is essentieel. Tenzij snel wordt aangetoond dat AI tijd bespaart of resultaten verbetert, zal scepticisme verharden. Tegelijkertijd hebben organisaties incident response-capaciteiten nodig voor AI-specifieke scenario’s. Denk aan een ambtenaar die per ongeluk duizenden burgerdossiers in een publieke AI-tool plakt. Kan de organisatie achterhalen wat er is blootgesteld, wanneer, door wie en welke andere data is gedeeld? Zonder onveranderlijke audit logs, SIEM-integratie en chronologische documentatie is het antwoord nee. Ten derde, bouw actief een werkcultuur rond AI op. Weinig discussie en lage zichtbaarheid versterken de terugtrekking. 58% van de Franse ambtenaren heeft nooit AI met een collega besproken. Leiders moeten ruimte creëren voor experimenteren, gedeeld leren en zichtbare succesverhalen die AI in de praktijk laten zien. Beheerde sandboxes, werkplekcompetities en peer-to-peer leernetwerken kunnen het culturele momentum op gang brengen dat Frankrijk nu volledig mist. Zonder snelle culturele verandering zullen zelfs sterke beleidskaders niet leiden tot adoptie — zoals de index nu aantoont. Frankrijk als laatste in deze index is meer dan gênant — het is een waarschuwing. Elke dag dat ambtenaren geen veilige, goedgekeurde AI-tools hebben, is weer een dag waarop burgerdata via persoonlijke accounts zonder toezicht stroomt. Elke week zonder duidelijke richtlijnen vergroot de kloof tussen de AI-ambitie van Frankrijk en de realiteit in de publieke sector. Elke maand zonder ingebed AI-gegevensbeheer is weer een maand waarin de vicieuze cirkel van lage adoptie en laag optimisme zich verder vastzet. Shadow AI heeft geen hoge adoptie nodig om risico te creëren. Het vereist alleen een paar gemotiveerde individuen die institutionele barrières omzeilen met gevoelige data en zonder waarborgen. In Frankrijk — waar 1 op de 3 ambtenaren zegt dat hun werkplek het actief moeilijk maakt om AI te gebruiken waar het nuttig zou zijn — zijn die omstandigheden stevig aanwezig. De 342 Franse ambtenaren die in deze index zijn onderzocht, geven een duidelijke boodschap: Geef ons de richtlijnen, geef ons de tools, en laat zien dat AI relevant is voor het werk dat we elke dag doen. De vraag is of Franse overheidsleiders hun AI-strategie van wereldklasse willen laten aansluiten bij de uitvoering op de werkvloer die het vereist — voordat de laatste plaats een permanente positie wordt. De Public Sector AI Adoption Index 2026 is een wereldwijd onderzoek van Public First voor het Center for Data Innovation, gesponsord door Google. Er werden 3.335 ambtenaren in 10 landen ondervraagd — waaronder 342 in Frankrijk — om te meten hoe AI wordt ervaren op overheidswerkplekken. De index beoordeelt landen op vijf dimensies: enthousiasme, educatie, empowerment, enablement en embedding, elk op een schaal van 0–100. Het onderzoek gaat verder dan het meten van overheidsstrategieën voor AI en kijkt of ambtenaren de tools, training, permissies en infrastructuur hebben om AI effectief te gebruiken in hun dagelijkse werk. Frankrijk staat onderaan — 10e van de 10 landen — met een totaalscore van 42 van de 100. Het scoort het laagst op embedding (36/100) en empowerment (39/100), wat minimale integratie van AI in dagelijkse workflows en onduidelijk governance rond AI-gebruik weerspiegelt. Frankrijk blijft achter op alle andere landen in de index, waaronder Duitsland (44), Japan (43), de VS (45), het VK (47) en koplopers als Saoedi-Arabië (66), Singapore (58) en India (58). De index classificeert Frankrijk als een “voorzichtige adopter” — een land met een sterke nationale strategie en ethisch kader, maar hardnekkig onvermogen om dit te vertalen naar zelfverzekerd, dagelijks AI-gebruik door ambtenaren op de werkvloer. De indexdata wijst op een uitvoeringskloof in plaats van een strategiekloof. Frankrijk heeft sinds 2018 fors geïnvesteerd in AI-onderzoek, talent en beleidskaders, en het ’trusted AI’-raamwerk sluit nauw aan bij de vereisten van de EU AI-wet. Toch is dit niet vertaald naar de praktijk op de werkvloer. 45% van de ambtenaren heeft nog nooit AI op het werk gebruikt. 66% heeft geen training gehad. Slechts 27% zegt dat hun organisatie in AI-tools heeft geïnvesteerd. Meer dan 50% zegt dat leiders geen duidelijke richting geven over AI. Het resultaat is een zichzelf versterkende cyclus: Zwakke embedding beperkt adoptie, lage adoptie beperkt zichtbare voordelen, en het ontbreken van voordelen houdt het lage optimisme in stand — met Frankrijk als minst optimistisch land met slechts 33%. Shadow AI verwijst naar ambtenaren die ongeautoriseerde AI-tools gebruiken — vaak persoonlijke accounts voor diensten als ChatGPT — voor werk zonder dat hun organisatie hiervan op de hoogte is of toezicht houdt. De index toont aan dat in omgevingen met weinig enablement wereldwijd, 64% van de enthousiaste AI-gebruikers vertrouwt op persoonlijke logins op het werk en 70% gebruikt AI zonder dat hun manager het weet. De lage enablement (42/100) en empowerment (39/100) scores van Frankrijk, gecombineerd met 1 op de 3 ambtenaren die zeggen dat hun werkplek het actief moeilijk maakt om AI te gebruiken, creëren omstandigheden waarin gemotiveerde individuen institutionele barrières omzeilen. Dit brengt burgerdata in gevaar onder GDPR, de EU AI-wet en de Franse Loi Informatique et Libertés, zonder audittrail of forensische mogelijkheden om blootstelling te beoordelen. De indexdata suggereert dat organisaties moeten verschuiven van het beperken van AI-toegang naar het veilig mogelijk maken ervan. Dit betekent het inzetten van goedgekeurde AI-tools op ondernemingsniveau met ingebouwde AI-gegevensbeheercontroles, zoals platforms die gevoelige data binnen het private netwerk houden terwijl productiviteit met AI-assistenten als Claude, ChatGPT en Copilot mogelijk blijft. Organisaties moeten data security posture management (DSPM) implementeren om gevoelige data te classificeren en beleid automatisch af te dwingen, onveranderlijke audit logs bijhouden van alle AI-data-interacties en incident response-mogelijkheden opzetten voor AI-specifieke datalekscenario’s. Oplossingen zoals Kiteworks’ Secure MCP Server, afgestemd op GDPR, de EU AI-wet en de Franse Loi Informatique et Libertés, laten zien hoe organisaties AI-productiviteit kunnen realiseren zonder concessies te doen aan gegevensbeveiliging of compliance. Saoedi-Arabië (66/100), Singapore (58/100) en India (58/100) zijn de best scorende landen. Elk volgde een ander pad, maar met gemeenschappelijke elementen: duidelijke regels over wat ambtenaren wel en niet met AI mogen doen, goedgekeurde en veilige tools die via de organisatie worden aangeboden, en zichtbaar leiderschap dat AI positioneert als modernisering in plaats van risico. Cruciaal is dat deze landen AI tastbaar maakten door ambtenaren tools, training en toestemming tegelijk te geven — en zo de cyclus van lage zichtbaarheid en laag optimisme doorbraken die Frankrijk gevangen houdt. Frankrijk heeft vergelijkbare strategische ambitie en zelfs sterkere ethische kaders dan de meeste landen, maar heeft dit nog niet gekoppeld aan toegang tot tools op de werkvloer, duidelijke permissies en praktische training zoals de koplopers wel doen.De ontbrekende laag: AI-gegevensbeheer voor de Franse overheid
Wat Franse ambtenaren nodig hebben om de cyclus te doorbreken
Waarom embedding belangrijker is dan wat dan ook
Drie prioriteiten die Frankrijk uit de laatste plaats kunnen halen
De inzet is groter dan de ranglijst
Veelgestelde vragen