Canada’s AI-consultatie gebruikte AI om 64.600 reacties te analyseren. Dit ging er verloren in de vertaling.
In oktober 2025 lanceerde de Canadese AI-minister Evan Solomon wat de overheid een 30-daagse nationale sprint noemde — de grootste openbare raadpleging in de geschiedenis van Innovation, Science and Economic Development Canada (ISED). Het doel was ambitieus: publieke en deskundige input verzamelen om Canada’s volgende nationale AI-strategie vorm te geven.
De raadpleging verzamelde 64.600 reacties op 26 vragen van het Canadese publiek. Een aparte expertgroep van 28 leden produceerde 32 papers en rapporten over onderwerpen als commercialisering en infrastructuur tot veiligheid, vertrouwen en wereldwijde concurrentiekracht.
Daarna deed de overheid iets waardoor elke professional in gegevensbeheer rechtop zou moeten gaan zitten: ze gebruikte vier AI-modellen — Cohere Command A, OpenAI GPT-5 nano, Anthropic Claude Haiku en Google Gemini Flash — om de resultaten te lezen, analyseren en samen te vatten.
Het resulterende “wat we hoorden”-rapport, stilletjes uitgebracht begin februari 2026, vat die tienduizenden stemmen samen tot een overzichtelijk overheidsverhaal. En zoals hoogleraar recht aan de Universiteit van Ottawa Michael Geist aantoonde in een gedetailleerde analyse, verzacht, zuivert en herkadert dat verhaal consequent de meest scherpe waarschuwingen van de experts tot het soort evenwichtige beleidsjargon dat redelijk klinkt, maar het daadwerkelijke advies verhult.
Dit is niet alleen een Canadees beleidsverhaal. Het is een AI data governance-verhaal — en het heeft directe implicaties voor elke organisatie die AI gebruikt om gevoelige inhoud te verwerken, samen te vatten of er beslissingen op te baseren.
5 Belangrijke Inzichten
- Canada gebruikte AI om haar eigen AI-strategie-raadpleging samen te vatten — en de resultaten verdienen kritische aandacht. De Canadese overheid gebruikte vier verschillende AI-modellen — Cohere Command A, OpenAI GPT-5 nano, Anthropic Claude Haiku en Google Gemini Flash — om 64.600 publieke reacties op 26 vragen te analyseren. Hoewel AI de overheid in staat stelde maanden aan analyse samen te persen tot enkele weken, verzachtte de uiteindelijke samenvatting consequent de meest dringende waarschuwingen van experts tot evenwichtig “overheidsjargon”. Wanneer AI beleidsinput samenvat, bepaalt degene die de prompts instelt het verhaal.
- De experts zeiden dat uitvoering, niet onderzoek, Canada’s echte AI-probleem is De 28-koppige expertgroep produceerde 32 rapporten die steeds dezelfde boodschap benadrukten: Canada’s uitdaging is niet een tekort aan onderzoekstalent of academische excellentie. Het is het onvermogen om AI te commercialiseren, op te schalen en in te zetten op wereldwijd competitief niveau. De samenvatting van de overheid presenteerde elke beleidszuil als een gelijke prioriteit, waardoor een illusie van evenwichtig consensus ontstond, terwijl de experts een vijf-alarm-brand zagen.
- Snelheid werd gepresenteerd als een strategische variabele — maar de overheidssamenvatting negeerde dit. De expert-rapporten beschouwen snelheid als een competitief wapen: landen die sneller handelen, leiden, terwijl wie aarzelt eindigt met het reguleren van wat anderen hebben gebouwd. Sommige experts wezen direct naar de overheid zelf — trage aanbestedingen, vertraagde financiering en regelgevende knelpunten — als onderdeel van het probleem. Geen van die zelfkritiek haalde de officiële samenvatting.
- Regulering van vertrouwen en veiligheid leidde tot scherpe meningsverschillen die in de samenvatting verdwenen. De openbare raadpleging legde sterk de nadruk op AI-veiligheid, en de overheid lijkt af te stevenen op governance-raamwerken, verplichte audits en risicogebaseerde regulering. Maar de expert-rapporten waren veel minder eensgezind. Sommigen pleitten voor snelle regulering, terwijl anderen waarschuwden dat te brede regels Canadese bedrijven zouden benadelen en technologieën zouden reguleren die Canada niet beheerst. De overheidssamenvatting presenteerde vertrouwen als een vaststaand consensuspunt, niet als het omstreden beleidsveld dat het in werkelijkheid is.
- De grootste les over data governance gaat niet over AI-beleid — maar over AI-verwerkt beleid. Wanneer een overheid AI gebruikt om haar eigen raadplegingsresultaten samen te vatten, introduceert ze dezelfde data governance-risico’s waar bedrijven dagelijks mee te maken hebben: gebrek aan transparantie over hoe input output wordt, geen audittrail die laat zien wat is gefilterd of benadrukt, en geen mogelijkheid voor belanghebbenden om te verifiëren dat hun input correct is weergegeven. Het proces zelf is een casestudy waarom AI data governance ertoe doet.
Wat de experts daadwerkelijk zeiden versus wat de overheid publiceerde
De overheid nam een ongebruikelijk besluit: ze publiceerde alle 32 expert-rapporten naast haar eigen samenvatting. Die transparantie bood iedereen die bereid was het bronmateriaal te lezen de kans om te vergelijken wat was ingediend met wat werd gerapporteerd.
Geist deed precies dat. Hij uploadde alle 32 documenten naar zowel ChatGPT als Perplexity AI en genereerde zijn eigen samenvattingen van de belangrijkste thema’s en meningsverschillen. De verschillen tussen zijn AI-gegenereerde samenvattingen en die van de overheid zijn veelzeggend.
De expert-rapporten presenteren Canada’s AI-uitdaging consequent als een uitvoeringsprobleem, niet als een onderzoeksprobleem. Of het nu gaat om commercialisering, adoptie, infrastructuur of opschaling naar wereldwijd competitieve operaties, de rapporten hameren op dezelfde boodschap: Canada heeft onderzoek van wereldklasse maar is daar niet verder mee gekomen. De overheidssamenvatting daarentegen presenteert elke beleidszuil als een parallelle prioriteit met evenwichtige doelstellingen. Alles is even belangrijk. Er worden nauwelijks afwegingen erkend. De urgentie die door de expert-rapporten loopt, wordt systematisch afgezwakt.
Hetzelfde patroon geldt voor snelheid. De expert-rapporten presenteren snelheid als een strategische variabele — landen die sneller handelen, leiden; landen die aarzelen, blijven achter en reguleren wat anderen hebben gebouwd. In meerdere rapporten wordt de overheid zelf als deel van het probleem aangewezen: trage aanbestedingscycli, vertraagde financieringsbesluiten en goedkeuringsprocessen die op bureaucratisch tempo verlopen terwijl concurrenten sprinten. In de overheidssamenvatting ontbreekt elke erkenning dat Canada’s eigen tempo haar concurrentiekracht, datasoevereiniteit en vermogen om wereldwijde AI-normen te beïnvloeden, ondermijnt.
Bij toegang tot kapitaal en overheidsaanbestedingen wordt het verschil nog scherper. De expert-rapporten beschrijven Canada’s onvermogen om AI-bedrijven op te schalen als een structurele beperking die samenhangt met het ontbreken van binnenlands kapitaal — niet een klein punt, maar een fundamentele bottleneck. Sommige experts stellen dat de afhankelijkheid van subsidies contraproductief is geworden, bedrijven afschermt van marktdiscipline en er niet in slaagt klanten, omzet of schaal te genereren. Overheidsaanbestedingen, suggereren meerdere rapporten, zouden een veel effectiever industrieel beleidsinstrument zijn — concurreren om opdrachten, niet om subsidies. De overheidssamenvatting verwijst indirect naar kapitaaluitdagingen zonder de politieke keuzes te benoemen.
Je vertrouwt erop dat je organisatie veilig is. Maar kun je het verifiëren?
Read Now
Het vertrouwen- en veiligheidsdebat dat verdween
Misschien is het grootste verschil tussen de expert-rapporten en de overheidssamenvatting het onderwerp vertrouwen en veiligheid.
AI-veiligheid was een dominant thema in de reacties op de openbare raadpleging, en de overheid lijkt duidelijk te kiezen voor het opbouwen van governance-raamwerken, verplichte audits, transparantievereisten en risicogebaseerde regulering in haar nationale AI-strategie. Het publiek wil begrijpelijkerwijs waarborgen.
Maar de expert-rapporten zijn veel minder eensgezind over hoe die waarborgen moeten worden vormgegeven. Vrijwel iedereen is het erover eens dat vertrouwen essentieel is voor adoptie. De meningsverschillen ontstaan bij de implementatie. Sommige experts pleiten voor snelle, bindende regulering. Anderen waarschuwen dat te brede regels de inzet zullen vertragen, Canadese bedrijven op achterstand zetten en proberen technologieën te reguleren die Canada niet beheerst en niet heeft gebouwd. Minister Solomon zelf omschreef de reguleringsfilosofie als “light, tight, and right”, waarmee hij erkent dat overregulering bedrijven en kapitaal kan wegjagen naar vriendelijkere rechtsbevoegdheden.
Die meningsverschillen verdwijnen grotendeels in de overheidssamenvatting, waar vertrouwen wordt gepresenteerd als een vaststaand consensusdoel in plaats van wat het werkelijk is: een omstreden beleidsdomein met echte afwegingen en legitieme tegengestelde standpunten. Dit is geen consensus. Het is de schijn van consensus, gecreëerd door selectieve samenvatting.
Vanuit het perspectief van Kiteworks benadrukt het debat over vertrouwen en veiligheid een kritisch gat dat veel verder reikt dan overheidsbeleid. Elke organisatie die AI inzet, staat voor dezelfde spanning: hoe maak je AI-gedreven productiviteit mogelijk terwijl je de governance-controles behoudt die gevoelige data beschermen? Het antwoord is niet om AI-toegang te beperken — de Canadese raadplegingsdata laten zien dat die aanpak gebruik alleen maar ondergronds duwt. Het antwoord is het bouwen van een veilige infrastructuur die AI-adoptie mogelijk maakt binnen een gereguleerd kader. Dat betekent het inzetten van een private content network waar gevoelige data door AI-tools stroomt met volledige zichtbaarheid, granulaire toegangscontrole en een uitgebreide audittrail — zodat organisaties “ja” kunnen zeggen tegen AI zonder “ja” te zeggen tegen onbeheersbaar AI-risico.
Als AI AI-beleid samenvat, wie houdt de samenvatter in de gaten?
Er zit een dieper AI data governance-probleem in dit verhaal dat verder gaat dan beleidsmeningsverschillen.
De Canadese overheid gebruikte AI om input samen te vatten die het nationale AI-beleid zal vormgeven. Dat creëert een recursief vertrouwensprobleem: het instrument dat gereguleerd wordt, is ook het instrument dat de analyserende governance uitvoert. En het proces roept precies dezelfde vragen op als waarmee bedrijven worden geconfronteerd wanneer zij AI inzetten om gevoelige inhoud te verwerken:
- Transparantie: Welke prompts zijn gebruikt om de AI-analyse te sturen? Zijn de modellen geïnstrueerd om consensus te zoeken, of juist meningsverschillen naar voren te brengen? Moesten ze perspectieven balanceren, of getrouw de verdeling van standpunten weergeven? Het publiek weet het niet.
- Auditability: Er is geen gepubliceerde audittrail die laat zien hoe de AI-modellen 64.600 ruwe reacties omzetten in thematische samenvattingen. Niemand buiten de overheid kan verifiëren of de samenvatting de input correct heeft weergegeven of systematisch heeft gefilterd.
- Reproduceerbaarheid: Er zijn vier verschillende AI-modellen gebruikt. Zijn hun uitkomsten met elkaar vergeleken? Waren ze het eens? Waar ze uiteenliepen, hoe zijn conflicten opgelost? Het rapport vermeldt het niet.
- Verantwoordelijkheid: Wanneer een AI-gegenereerde samenvatting waarschuwingen van experts afzwakt tot bureaucratische taal, wie is dan verantwoordelijk? Het model? De prompt engineer? Het kantoor van de minister? De chain of custody is ondoorzichtig.
Dit zijn geen hypothetische zorgen. Het zijn dezelfde data governance-uitdagingen waar elke organisatie mee te maken krijgt zodra AI gevoelige inhoud aanraakt. En de ervaring van de Canadese overheid laat precies zien waarom organisaties infrastructuur nodig hebben die zichtbaarheid biedt in hoe AI data verwerkt — niet alleen wat erin gaat, maar ook wat eruit komt en hoe het onderweg is getransformeerd.
Kiteworks vult dit gat op met haar aanpak van AI data governance. Door gevoelige inhoud te routeren via een private content network met Data Security Posture Management (DSPM)-mogelijkheden, kunnen organisaties exact volgen welke data wordt gedeeld met AI-systemen, beleid afdwingen op basis van dataclassificatie dat voorkomt dat bevoorrechte inhoud zonder toestemming wordt verwerkt, en onveranderlijke audit logs bijhouden van elke AI-data-interactie. Het doel is niet om AI te blokkeren. Het is om ervoor te zorgen dat wanneer AI gevoelige informatie verwerkt, er een volledig, verifieerbaar verslag is van wat er is gebeurd.
De bredere les voor enterprise AI governance
Het Canadese raadplegingsverhaal is een microkosmos van een uitdaging waar elke organisatie voor staat naarmate AI-adoptie versnelt.
Zowel het publiek als de experts wilden betekenisvolle input leveren voor een belangrijk beleidsbesluit. De overheid organiseerde een grootschalige raadpleging en gebruikte AI om de resultaten te analyseren. De AI-gegenereerde samenvatting week op belangrijke punten af van het bronmateriaal. En niemand buiten het proces kan verifiëren of die afwijking opzettelijk, per ongeluk, of simpelweg het gevolg was van hoe grote taalmodellen complexiteit omzetten in samenhang.
Vertaal dat nu naar een bedrijfscontext. Juridische teams die AI gebruiken om contractonderhandelingen samen te vatten. Financiële afdelingen die AI inzetten om due diligence-documenten te analyseren. HR-teams die AI gebruiken om werknemersfeedback te verwerken. Compliance-teams die AI inzetten om toezichtrapportages te beoordelen. In elk geval gelden dezelfde vragen: Is de samenvatting trouw aan de bron? Wat is eruit gefilterd? Kun je het bewijzen?
De organisaties die die vragen goed beantwoorden, zijn degenen die de governance-infrastructuur al hebben opgebouwd voordat ze die nodig hadden — niet pas nadat een incident hen ertoe dwong. Dat betekent gevoelige communicatie over inhoud samenbrengen op een gereguleerd platform met volledige audittrails, zero-trust architectuurprincipes toepassen op elke AI-data-interactie, en een verifieerbare chain of custody onderhouden die toezichthouders, raden van bestuur en partners steeds vaker eisen.
Wat Canada goed deed — en waar het tekortschiet
De overheid verdient lof voor het publiceren van alle expert-rapporten naast de samenvatting. Die transparantie is precies waar voorstanders van data governance op aandringen: toon je bronnen. Geists mogelijkheid om de ruwe input te vergelijken met de verwerkte output is alleen mogelijk omdat de bronbestanden openbaar zijn gemaakt. Veel overheden — en veel bedrijven — zouden die stap niet hebben gezet.
Waar het proces tekortschiet, is in de governance van de AI-analyse zelf. Geen documentatie van de methodologie waarin wordt uitgelegd hoe de AI-modellen zijn geprompt, gevalideerd of onderling gecontroleerd. Geen erkenning van de beperkingen die inherent zijn aan het gebruik van AI om complexe, meerperspectivische beleidsinput samen te vatten. Geen onafhankelijke verificatie van de nauwkeurigheid van de samenvatting. En geen duidelijk verantwoordingskader voor het verschil tussen wat is ingediend en wat is gerapporteerd.
De ironie is onmiskenbaar: een raadpleging bedoeld om een nationale AI-strategie te informeren, werd zelf ondermijnd door onvoldoende AI governance. De risico’s waar de experts voor waarschuwden — de noodzaak van transparantie, audittrails en verantwoordelijkheid in AI-systemen — waren duidelijk zichtbaar in het proces waarmee hun waarschuwingen werden samengevat.
De kern
De Canadese AI-raadpleging is een waarschuwing voor elke organisatie die AI gebruikt om gevoelige informatie te verwerken, analyseren of samenvatten. De technologie werkt. Het kan maanden aan analyse samenpersen tot weken. Maar zonder governance-infrastructuur — transparantie over hoe input output wordt, audittrails die vastleggen wat is gefilterd of benadrukt, en verantwoordelijkheid voor het verschil tussen ruwe data en verwerkte conclusies — kunnen de resultaten stilletjes afwijken van de werkelijkheid op manieren die moeilijk te detecteren en onmogelijk te verifiëren zijn achteraf.
De experts die deelnamen aan Canada’s raadpleging namen hun opdracht serieus en gaven openhartig, actiegericht advies. De vraag is niet of hun input waardevol was. De vraag is of de AI-bemiddelde samenvatting die input correct weerspiegelde — en of iemand kan bewijzen dat dat zo was.
Voor Kiteworks bevestigt dit een principe dat alles doordringt wat we doen: wanneer gevoelige inhoud door AI-systemen stroomt, is zichtbaarheid niet onderhandelbaar. Dat betekent volledige audittrails, geautomatiseerde zero-trust data protection policy enforcement, en de mogelijkheid om te verifiëren dat wat erin ging, getrouw wordt weergegeven in wat eruit komt. Overheden en bedrijven hebben deze infrastructuur nodig — niet omdat AI gevaarlijk is, maar omdat AI zonder governance een black box is. En in een wereld waarin belangrijke beslissingen steeds vaker worden gevormd door AI-gegenereerde samenvattingen, is een black box een risico dat geen enkele organisatie zich kan permitteren.
Wil je weten hoe Kiteworks kan helpen? Plan vandaag nog een demo op maat.
Veelgestelde vragen
In oktober 2025 lanceerde de Canadese AI-minister Evan Solomon een 30-daagse nationale sprint om input te verzamelen voor het volgende nationale AI-beleid. De raadpleging verzamelde 64.600 publieke reacties en 32 expert-rapporten van een taskforce van 28 leden. De overheid gebruikte vier AI-modellen om de resultaten te analyseren en samen te vatten. Het proces is relevant voor AI data governance omdat het laat zien wat er gebeurt als AI wordt ingezet om grote hoeveelheden gevoelige, impactvolle input te verwerken zonder voldoende transparantie, auditability of onafhankelijke verificatie. De verschillen tussen de expert-rapporten en de AI-gegenereerde samenvatting van de overheid benadrukken risico’s die direct relevant zijn voor elke organisatie die AI gebruikt om gevoelige inhoud te verwerken.
De overheid gebruikte Cohere Command A, OpenAI GPT-5 nano, Anthropic Claude Haiku en Google Gemini Flash om 64.600 inzendingen te lezen en gemeenschappelijke thema’s te identificeren. De AI-analyse comprimeerde wat normaal een maandenlang proces zou zijn tot enkele weken. De methodologie — inclusief de gebruikte prompts, hoe modeluitkomsten zijn gevalideerd en hoe meningsverschillen tussen modellen zijn opgelost — werd echter niet gepubliceerd. Dit gebrek aan transparantie maakt het voor het publiek onmogelijk om de nauwkeurigheid van de samenvatting te verifiëren.
Hoogleraar recht aan de Universiteit van Ottawa Michael Geist voerde een gedetailleerde vergelijking uit van de 32 expert-rapporten met de overheidssamenvatting. Belangrijke verschillen zijn onder meer de nadruk van de experts op uitvoering boven onderzoek als Canada’s echte uitdaging, de positionering van snelheid als strategische variabele met directe kritiek op de traagheid van de overheid, de structurele aard van Canada’s kapitaalprobleem en scherpe meningsverschillen over regulering van vertrouwen en veiligheid die in de samenvatting als consensus werden gepresenteerd. De overheidssamenvatting verzachtte consequent urgentie tot evenwichtig beleidstaalgebruik.
Het gebruik van AI om beleidsinput samen te vatten introduceert diverse data governance-risico’s: gebrek aan transparantie over hoe prompts de output beïnvloeden, geen audittrail die laat zien wat is gefilterd of benadrukt tijdens de samenvatting, onmogelijkheid voor belanghebbenden om te verifiëren dat hun input correct is weergegeven, en onduidelijke verantwoordelijkheid wanneer AI-gegenereerde samenvattingen afwijken van het bronmateriaal. Dit zijn dezelfde risico’s waarmee bedrijven worden geconfronteerd wanneer AI gevoelige zakelijke inhoud verwerkt — contractanalyse, due diligence, toezichtrapportages en werknemersfeedback.
Kiteworks pakt AI data governance aan via haar private content network-benadering. Organisaties kunnen gevoelige inhoud routeren via een gereguleerd platform dat Data Security Posture Management (DSPM) biedt om gevoelige data die naar AI-systemen stroomt te ontdekken en te classificeren, geautomatiseerde beleidsafdwinging die bevoorrechte inhoud blokkeert voor ongeautoriseerde AI-verwerking, onveranderlijke audit logs die elke AI-data-interactie vastleggen inclusief gebruikers-ID, tijdstip, geraadpleegde data en het gebruikte AI-systeem, en zero-trust data exchange-principes die consistente beveiligingsmaatregelen toepassen ongeacht welke AI-tools worden ingezet. Deze infrastructuur zorgt ervoor dat organisaties AI met vertrouwen kunnen adopteren, terwijl ze de zichtbaarheid, verantwoordelijkheid en compliance behouden die toezichthouders en raden van bestuur steeds vaker eisen.
Aanvullende bronnen
- Blog Post Zero Trust Architectuur: Nooit vertrouwen, altijd verifiëren
- Video Microsoft GCC High: Nadelen die defensie-aannemers richting slimmere voordelen sturen
- Blog Post Hoe je geclassificeerde data beveiligt zodra DSPM het signaleert
- Blog Post Vertrouwen opbouwen in Generatieve AI met een Zero Trust-aanpak
- Video De definitieve gids voor het veilig opslaan van gevoelige data voor IT-leiders