Brazilië's Zelfgeleerde AI-werknemers: Enthousiasme Overstijgt Governance

Brazilië’s Zelfgeleerde AI-werknemers: Enthousiasme Overstijgt Governance

De Braziliaanse ambtenaren wachtten niet op toestemming. Ze wachtten niet op trainingsprogramma’s. Ze wachtten niet op bedrijfslicenties of goedkeuring van de IT-helpdesk. Ze leerden zichzelf AI aan, begonnen het te gebruiken op het werk en — volgens de data — boeken ze resultaten.

Het probleem is dat ze dit allemaal doen zonder waarborgen.

Belangrijkste inzichten

  1. Brazilië heeft het meest zelflerende AI-personeel ter wereld — en dat is het probleem. 67% van de Braziliaanse ambtenaren zegt dat hun AI-kennis volledig of grotendeels zelf is aangeleerd — het hoogste percentage in de index. 52% beschrijft hun leerproces als volledig zelf aangeleerd. Dit is geen succesverhaal van training. Het is een personeelsbestand dat zichzelf heeft opgeleid omdat niemand anders het deed — en nu AI gebruikt op overheidsdata zonder formele richtlijnen, zonder goedgekeurde tools en zonder audittrail.
  2. Brazilië staat 5e in het algemeen, maar helemaal onderaan op het gebied van enablement. Brazilië scoorde 49 van de 100 punten — goed voor de 5e plaats in de index, vóór het VK, de VS, Duitsland, Japan en Frankrijk. Maar het scoorde slechts 41/100 op enablement, het laagste van alle landen. Meer dan 60% zegt dat hun organisatie niet de benodigde tools of middelen biedt om AI effectief te gebruiken. Meer dan 1 op de 5 heeft helemaal geen toegang tot AI-tools op het werk.
  3. Het enthousiasme is enorm, maar de instellingen houden het niet bij. 83% van de Braziliaanse ambtenaren noemt AI effectief. 89% zegt dat het tijd bespaart. 65% is optimistisch over AI in de publieke sector. Maar 68% zegt dat leiders geen duidelijke richting geven over het gebruik van AI, en 49% zou niet weten bij wie ze terecht kunnen als er iets misgaat. De kloof tussen enthousiasme en institutionele gereedheid is de grootste in de index.
  4. 63% begon het afgelopen jaar AI te gebruiken op het werk — meestal op eigen initiatief. De adoptie van AI in Brazilië is recent, snel en vrijwel volledig zelf geïnitieerd. In tegenstelling tot geavanceerde adopters waar het gebruik wordt aangestuurd door staatsstrategie en institutionele uitrol, is de adoptie in Brazilië van onderaf ontstaan. Dit zorgt voor enorme dynamiek — en een enorm governance-risico, omdat informeel gebruik alle institutionele waarborgen voorbijstreeft. Naarmate agentische AI-systemen zelfstandig kunnen handelen, wordt dat governance-risico alleen maar groter.
  5. Bijna 2 op de 5 Braziliaanse ambtenaren zijn niet zeker dat ze AI binnen het beleid gebruiken. 39% is niet zeker of ze AI gebruiken volgens het beleid van hun werkplek. 1 op de 4 vindt dat hun werkplek het moeilijk maakt om AI te gebruiken waar het nuttig zou zijn. Als individuele verantwoordelijkheid sneller groeit dan institutioneel toezicht, ligt het risico niet bij de organisatie — maar bij de ambtenaar zelf.

De Public Sector AI Adoption Index 2026, onlangs gepubliceerd door Public First voor het Center for Data Innovation met sponsoring van Google, ondervroeg 3.335 ambtenaren in 10 landen — waaronder 382 in Brazilië. Brazilië scoorde 49 van de 100 punten en staat daarmee op de 5e plaats in de index. Daarmee staat het voor het VK (47), de Verenigde Staten (45), Duitsland (44), Japan (43) en Frankrijk (42).

Op papier is dat een sterk resultaat. Maar als je naar de deelcijfers kijkt, ontstaat een heel ander beeld — een waarin het personeel sneller is dan de instellingen die hen zouden moeten aansturen.

De cijfers die Brazilië’s paradox onthullen

De index meet hoe ambtenaren AI ervaren over vijf dimensies: enthousiasme, empowerment, enablement, embedding en education. Voor Brazilië vertellen de scores het verhaal van de grootste kloof tussen enthousiasme en infrastructuur in het hele onderzoek:

  • Enthousiasme: 60/100 — de vierde hoogste score in de index. 65% van de Braziliaanse ambtenaren is optimistisch over AI. 83% noemt het effectief. 89% zegt dat het tijd bespaart.
  • Education: 54/100 — er is enige training, maar ongeveer de helft van de ambtenaren geeft aan geen formele AI-training te hebben gehad. 67% zegt dat hun AI-kennis volledig of grotendeels zelf is aangeleerd — het hoogste percentage in de index.
  • Empowerment: 46/100 — 68% zegt dat leiders geen duidelijke communicatie en richting geven over het gebruik van AI. Bijna 2 op de 5 zijn niet zeker of ze AI gebruiken volgens het beleid van hun werkplek.
  • Enablement: 41/100 — de laagste enablement-score van alle landen in de index. Meer dan 60% zegt dat hun organisatie niet de benodigde tools of middelen biedt om AI effectief te gebruiken. Meer dan 1 op de 5 meldt helemaal geen toegang te hebben tot AI-tools op het werk. Slechts 15% zegt dat hun organisatie de meest geschikte AI-tools voor hun werk gebruikt.
  • Embedding: 44/100 — vroege of ongelijke integratie, waarbij het gebruik van AI afhankelijk is van lokale initiatieven in plaats van systematische ondersteuning.

63% van de Braziliaanse ambtenaren begon het afgelopen jaar AI te gebruiken op het werk. De meesten deden dit op eigen initiatief. En 49% zegt dat ze niet weten bij wie ze terecht kunnen voor hulp als ze een probleem tegenkomen.

Dit is een personeelsbestand dat zijn eigen AI-capaciteit vanaf nul heeft opgebouwd — en nu op schaal opereert met nauwelijks enige institutionele infrastructuur eronder.

De Shadow AI-crisis achter het enthousiasme

Hier is de wereldwijde bevinding uit de index die Braziliaanse overheidsleiders op het gebied van beveiliging zich niet kunnen permitteren te negeren.

In omgevingen met weinig enablement binnen de index rapporteert 64% van de enthousiaste AI-gebruikers dat ze persoonlijke logins gebruiken op het werk, en 70% gebruikt AI voor werk zonder dat hun manager het weet.

Brazilië heeft de laagste enablement-score in de index (41/100) en een van de hoogste enthousiasme-scores (60/100). Dat is precies de combinatie die het grootste shadow AI-risico oplevert van alle landen in het onderzoek.

Denk na over wat dit in de praktijk betekent. Ambtenaren in federale, staats- en gemeentelijke overheden gebruiken persoonlijke ChatGPT-, Gemini- of andere AI-accounts om documenten op te stellen, datasets te analyseren, zaken samen te vatten en burgerinformatie te verwerken. Gevoelige data — waaronder informatie beschermd onder de Braziliaanse General Data Privacy Law (LGPD) en ANPD-regels voor grensoverschrijdende gegevensoverdracht — wordt mogelijk ingevoerd in publieke large language models zonder audittrail, zonder dataclassificatiecontroles en zonder mogelijkheid om achteraf te bepalen wat er is blootgesteld.

Het risico stapelt zich op. Naarmate AI zich ontwikkelt van eenvoudige chatbots naar agentische systemen — autonome AI die zelfstandig kan redeneren, handelen en interacteren met bedrijfsbronnen — nemen de gevolgen van ongecontroleerde toegang toe. Een verkeerd geconfigureerde AI-agent kan in enkele minuten duizenden gevoelige dossiers lekken, veel sneller dan een menselijke insider. Elke agent die wordt ingezet creëert een niet-menselijke identiteit die API-toegang en machine-tot-machine-authenticatie vereist, waarvoor traditionele identity management-systemen niet zijn ontworpen. In Brazilië, waar de adoptie nu al sneller gaat dan de institutionele controles, verandert de komst van agentische AI een bestaande governance-kloof in een acute structurele kwetsbaarheid.

En dit maakt de situatie in Brazilië uniek gevaarlijk: Het gebruik van publieke AI-tools kan de juridische verantwoordelijkheid verschuiven van de instelling naar het individu. Met 39% van de ambtenaren die al niet zeker weten of hun AI-gebruik in lijn is met het beleid, en zonder goedgekeurde systemen of duidelijke richtlijnen, nemen individuele ambtenaren compliance-risico’s op zich die eigenlijk bij de organisatie horen.

Dit is het moment waarop het gesprek moet verschuiven van het vieren van Brazilië’s enthousiasme naar het beveiligen ervan. De infrastructuur die nodig is om deze kloof te overbruggen, moet AI-productiviteit mogelijk maken met tools als Claude, ChatGPT en Copilot, terwijl gevoelige data binnen een privaat netwerk blijft. Bestaande governance-raamwerken (RBAC/ABAC) moeten worden uitgebreid naar alle AI-interacties — ook die van autonome agents — elke AI-operatie moet worden gelogd voor compliance en forensisch onderzoek, en gevoelige inhoud mag nooit de vertrouwde omgeving verlaten. De Secure MFT Server van Kiteworks is een voorbeeld van deze aanpak in de praktijk, waarbij AI-interacties binnen de grenzen van een Private Data Network blijven, elke operatie wordt beveiligd met OAuth 2.0-authenticatie en wordt bestuurd door bestaande organisatiebeleid. Voor Braziliaanse overheidsorganisaties betekent afstemming met het LGPD- en ANPD-regelgevend kader dat deze bescherming direct aansluit op bestaande compliance-verplichtingen — inclusief de veranderende vereisten onder PL 2338/2023.

Het alternatief — een zelflerend personeelsbestand laten werken met publieke AI-tools en overheidsdata zonder toezicht — is geen enthousiasme. Het is een dataprotectie-incident dat wacht om te gebeuren.

De interesse-infrastructuurkloof: waarom Brazilië’s kracht ook zijn kwetsbaarheid is

Het verhaal van Brazilië in deze index is anders dan dat van elk ander land. In de VS en het VK is het probleem ambivalentie — ambtenaren die toegang hebben tot enkele tools, maar niet het vertrouwen hebben om ze te gebruiken. In Frankrijk en Duitsland is het probleem inertie — personeelsbestanden die nauwelijks met AI werken. Bij de geavanceerde adopters — Singapore, KSA, India — wordt enthousiasme ondersteund door institutionele infrastructuur.

Brazilië vormt een categorie op zich: enorm enthousiasme, diepgaande zelflerende capaciteit en vrijwel geen institutionele ondersteuning.

De cijfers maken dit verhaal duidelijk zichtbaar. Brazilië heeft de sterkste digitale basis van Latijns-Amerika — het gov.br-platform, wijdverspreide digitale ID en PIX hebben gezorgd voor een digitaal betrokken bevolking en een rijke dataomgeving. Op nationaal niveau legt het Nationaal AI-plan 2024–2028, in lijn met het Braziliaanse G20-voorzitterschap, expliciet de nadruk op het gebruik van AI om publieke diensten te verbeteren. Op subnationaal niveau lopen staten als Goiás, Paraná en Piauí voorop met AI-wetgeving en regulatory sandboxes.

Maar deze investeringen op hoog niveau zijn niet tot de werkvloer doorgedrongen. 61% van de Braziliaanse ambtenaren zegt dat hun organisatie niet biedt wat ze nodig hebben om AI effectief te gebruiken. Slechts 15% zegt dat hun organisatie de beste AI-tools voor hun werk gebruikt. 49% zou niet weten bij wie ze terecht kunnen voor hulp. Toegang is grotendeels beperkt tot publiek beschikbare tools, met beperkte beschikbaarheid van enterprise- of interne systemen.

Het resultaat is een publieke sector waar AI-adoptie booming is — maar volledig onbeheerd. En in termen van dataprotectie is onbeheerd enthousiasme gevaarlijker dan helemaal geen enthousiasme.

De ontbrekende laag: AI-gegevensbeheer voor de Braziliaanse overheid

Het regelgevend landschap in Brazilië is al complex — en wordt steeds complexer. Naleving van de LGPD, ANPD-regels voor grensoverschrijdende gegevensoverdracht en de mogelijke invoering van PL 2338/2023 creëren lagen van verplichtingen waar overheidsorganisaties doorheen moeten navigeren. Wanneer AI informeel wordt gebruikt, op persoonlijke accounts, zonder organisatorisch toezicht, worden deze verplichtingen onmogelijk na te komen.

De meeste Braziliaanse overheidsorganisaties hebben geen zicht op welke data wordt gedeeld met AI-systemen. Welke ambtenaren gebruiken AI, en waarvoor? Bevatten AI-gegenereerde outputs gevoelige burgerinformatie? Hoe kunnen dataclassificatiebeleid worden gehandhaafd als AI-tools worden ingezet? Voor de meeste organisaties is het antwoord dat ze het niet weten — omdat het AI-gebruik volledig buiten hun systemen plaatsvindt.

Deze zichtbaarheidkloof wordt nog urgenter nu AI verschuift van passieve tools naar actieve agents. Agentische AI-systemen wachten niet op prompts — ze voeren meerstapsprocessen uit, hebben toegang tot databases en interacteren zelfstandig met externe API’s. Elke agent creëert een niet-menselijke identiteit die beveiligd moet worden, en de meeste identity management-systemen van de overheid zijn daar niet op ingericht op schaal. Data Layer Security met zero-trust governance, contextbewuste autorisatie en uniforme zichtbaarheid over elke interactie — of deze nu door een mens of een AI-agent wordt geïnitieerd — is niet langer optioneel.

Dit is waar AI data governance-raamwerken essentieel worden — niet als barrière voor het momentum dat Brazilië heeft opgebouwd, maar als de infrastructuur die dat momentum duurzaam en compliant maakt. Data security posture management (DSPM) kan gevoelige data ontdekken en classificeren in alle repositories, inclusief data die wordt ingevoerd in AI-systemen. Geautomatiseerde beleidsafdwinging kan bevoorrechte of vertrouwelijke data blokkeren voor AI-ingestie op basis van classificatielabels. Uitgebreide audit logs kunnen alle AI-data-interacties volgen. En als dit is afgestemd op het LGPD- en ANPD-regelgevend kader, helpen deze mogelijkheden organisaties AI-risico’s te beheersen gedurende de hele data life cycle.

De mogelijkheden die nodig zijn om deze kloof te dichten zijn duidelijk: integratie van DSPM met geautomatiseerde beleidsafdwinging en onveranderlijke audit logging. Elke AI-data-interactie moet worden vastgelegd met gebruikers-ID, tijdstempel, geraadpleegde data en het gebruikte AI-systeem. Het Private Data Network van Kiteworks levert deze aanpak, waarbij deze mogelijkheden worden gecombineerd in één platform met AI-gedreven anomaliedetectie die verdachte activiteiten signaleert — zoals een agent die plotseling grote hoeveelheden data opvraagt die normaal niet worden geraadpleegd. Voor Brazilië, waar individuele adoptie de institutionele gereedheid voorbijstreeft, vertraagt dit soort infrastructuur het momentum niet — het beschermt het.

Wat Braziliaanse ambtenaren hun overheid vertellen

De indexdata laat een personeelsbestand zien dat niet vraagt om te worden afgeremd. Ze vragen om ondersteuning.

49% zegt dat ze niet weten bij wie ze terecht kunnen voor hulp als ze een probleem hebben met AI. 61% zegt dat hun organisatie niet biedt wat ze nodig hebben. Bijna 2 op de 5 zijn niet zeker of ze AI binnen het beleid gebruiken. 1 op de 4 vindt dat hun werkplek het actief moeilijk maakt om AI te gebruiken waar het nuttig zou zijn.

De wereldwijde data over wat vaker AI-gebruik stimuleert is in elk land consistent: duidelijke richtlijnen, gebruiksvriendelijke tools en zekerheid over databeveiliging zijn de drie belangrijkste factoren. Een toegewijd budget staat onderaan. Braziliaanse ambtenaren hebben al laten zien dat ze AI adopteren zonder budget, zonder trainingsprogramma’s en zonder bedrijfslicenties. Wat ze nu nodig hebben is de organisatorische infrastructuur die hun bestaande gebruik veilig, compliant en effectief maakt.

Waarom enablement de doorslaggevende factor is voor Brazilië

Brazilië scoorde 41/100 op enablement — het laagste van alle landen in de index. En de wereldwijde data laat zien waarom enablement zo belangrijk is voor shadow AI-risico.

In organisaties met weinig enablement wereldwijd gebruikt 33% van de ambtenaren die AI privé gebruiken het nooit op het werk — wat laat zien hoe toegangskloven voorkomen dat vertrouwde tools productiviteit in de publieke sector opleveren. Maar in Brazilië is het omgekeerde het geval: Ambtenaren gebruiken AI op het werk ondanks het ontbreken van institutionele ondersteuning, op persoonlijke tools, met overheidsdata. Dat is geen enablement-kloof — het is een governance-noodsituatie.

In alle landen rapporteert 61% van de werknemers in omgevingen met hoge embedding voordelen van geavanceerd AI-gebruik, tegenover slechts 17% waar embedding laag is. De embedding-score van Brazilië (44/100) weerspiegelt vroege vooruitgang, maar de index maakt duidelijk dat embedding zonder enablement kwetsbaar is — gebaseerd op individueel initiatief dat op elk moment kan stagneren of risico kan creëren.

Drie prioriteiten om het momentum van Brazilië veilig te stellen

De index wijst op drie acties die de grassroots AI-adoptie in Brazilië kunnen omzetten in duurzame, door instellingen geleide transformatie — mits ze samen en snel worden opgepakt.

Ten eerste: vergroot de toegang tot vertrouwde, veilige AI-tools en kerninfrastructuur. De zwakste score van Brazilië is enablement. Ambtenaren vertrouwen op persoonlijke of publiek beschikbare tools omdat hun organisaties geen alternatieven bieden. Publiek beleid dat de toegang tot goedgekeurde, enterprise-grade AI-tools vergroot — samen met de benodigde cloud- en datainfrastructuur — zou informeel gebruik zichtbaar en bestuurbaar maken. Dit is vooral cruciaal nu agentische AI-systemen hun intrede doen in overheidsprocessen, omdat autonome agents dezelfde zero-trust governance vereisen als menselijke gebruikers — met de extra behoefte aan machine-tot-machine-authenticatie, sandboxed uitvoering en realtime anomaliedetectie. Platforms zoals de Secure MFT Server van Kiteworks laten zien hoe dit kan: AI-productiviteit mogelijk maken met tools als Claude, ChatGPT en Copilot, terwijl gevoelige data binnen het private netwerk blijft, met volledige compliance logging en afstemming op het LGPD- en ANPD-kader. Als goedgekeurde tools net zo gebruiksvriendelijk zijn als persoonlijke accounts — maar veilig, gelogd en compliant — vertraagt adoptie niet. Het wordt veiliger.

Ten tweede: combineer praktische training met duidelijke AI-gebruiksrichtlijnen en incident readiness. Hoewel het bewustzijn en optimisme groot zijn, ontbreekt het de meeste ambtenaren aan formele training of vertrouwen dat hun AI-gebruik wordt ondersteund. Korte, praktische, rolgerichte training moet worden gecombineerd met duidelijke AI-gebruiksrichtlijnen die een veilige haven creëren voor dagelijkse taken. Duidelijke instructies over wat is toegestaan, hoe data moet worden behandeld en waar ondersteuning te vinden is, helpen informeel AI-gebruik zichtbaar te maken. En organisaties hebben parallel incident response-mogelijkheden nodig. Zonder onveranderlijke audit logs, SIEM-integratie en chronologische documentatie, creëert het al bestaande zelflerende AI-gebruik in de Braziliaanse overheid een niet te kwantificeren compliance-risico onder de LGPD.

Ten derde: creëer duidelijke paden van experiment naar schaal. AI-adoptie in Brazilië wordt gedreven door individueel initiatief, en dat biedt een grote kans. Hoge niveaus van enthousiasme en zelfgestuurd gebruik wijzen op veel potentieel voor een cultuur van leren, experimenteren en peer-to-peer ontdekking. Om dit op schaal te ontsluiten, hebben ambtenaren duidelijkere organisatorische structuren en een duidelijke opdracht van de overheid nodig in de vorm van wetgeving en regulatory sandboxes. Naarmate AI-tools evolueren richting agentische mogelijkheden, moeten deze sandboxes ook bepalingen bevatten voor het besturen van autonome AI-systemen — zodat agents binnen gedefinieerde grenzen werken voordat ze op schaal worden ingezet. Staten als Goiás en Paraná lopen hier al voorop — het nationaal uitrollen van deze modellen zou de grassroots adoptie in Brazilië de institutionele structuur geven die nodig is voor duurzame, systeemwijde transformatie.

De inzet is groter dan de ranglijst

De 5e plaats van Brazilië in deze index is indrukwekkend — maar het cijfer maskeert een tikkende klok. Elke dag dat zelflerende ambtenaren werken met persoonlijke AI-tools en overheidsdata is weer een dag van compliance-risico onder de LGPD. Elke week zonder goedgekeurde enterprise-tools is weer een week waarin burgerdata door systemen stroomt die de overheid niet kan zien, auditen of controleren. Elke maand zonder duidelijke AI-governance is weer een maand waarin de juridische verantwoordelijkheid die bij instellingen hoort, in plaats daarvan terechtkomt bij individuele ambtenaren die gewoon hun werk beter willen doen. En naarmate AI-agents autonomer en gangbaarder worden, groeit het aanvalsoppervlak mee.

De Braziliaanse ambtenaren hebben iets bijzonders gedaan: Ze hebben AI sneller en enthousiaster geadopteerd dan hun collega’s in de VS, het VK, Duitsland en Frankrijk — zonder dat het gevraagd werd, zonder training, en zonder de benodigde tools. Dat getuigt van de vindingrijkheid en inzet van het Braziliaanse publieke personeelsbestand.

Maar vindingrijkheid zonder infrastructuur is een risico, geen strategie. De 382 Braziliaanse ambtenaren die in deze index zijn onderzocht, hebben al laten zien dat ze AI omarmen. De vraag is of hun overheid hen zal ondersteunen met veilige tools, duidelijke richtlijnen en data governance — voordat enthousiasme een aansprakelijkheid wordt.

Veelgestelde vragen

De Public Sector AI Adoption Index 2026 is een wereldwijd onderzoek van Public First voor het Center for Data Innovation, gesponsord door Google. Er werden 3.335 ambtenaren in 10 landen ondervraagd — waaronder 382 in Brazilië — om te meten hoe AI wordt ervaren op overheidswerkplekken. De index beoordeelt landen op vijf dimensies: enthousiasme, empowerment, enablement, embedding en education, elk op een schaal van 0–100. Het gaat verder dan alleen meten of overheden AI-strategieën hebben en kijkt of ambtenaren de tools, training, toestemming en infrastructuur hebben om AI effectief te gebruiken in hun dagelijkse taken.

Brazilië staat op de 5e plaats van 10 landen met een totaalscore van 49 op 100. Het scoort het hoogst op enthousiasme (60/100), wat wijst op breed optimisme en positieve ervaringen met AI, maar het laagst op enablement (41/100) — de zwakste enablement-score van alle landen in de index. Dit betekent dat Braziliaanse ambtenaren enthousiast en zelfgemotiveerd zijn, maar ernstig tekortschieten aan organisatorische tools, ondersteuning en infrastructuur. Brazilië staat voor het VK (47), de VS (45), Duitsland (44), Japan (43) en Frankrijk (42), maar achter geavanceerde adopters als Saoedi-Arabië (66), Singapore (58), India (58) en Zuid-Afrika (55).

De adoptie in Brazilië is vrijwel volledig zelf geïnitieerd in plaats van door de instelling aangestuurd. 67% van de ambtenaren zegt dat hun AI-kennis volledig of grotendeels zelf is aangeleerd. 63% begon het afgelopen jaar AI te gebruiken op het werk. Maar meer dan 60% zegt dat hun organisatie niet de benodigde tools of middelen biedt om AI effectief te gebruiken. Meer dan 1 op de 5 heeft geen toegang tot AI-tools op het werk, en slechts 15% zegt dat hun organisatie de meest geschikte AI-tools gebruikt. Het resultaat is een publieke sector waar AI enthousiast door individuen wordt geadopteerd, maar zonder enterprise-tools, formele governance of organisatorische ondersteuning — waardoor de grootste kloof tussen enthousiasme en infrastructuur in de index ontstaat.

Shadow AI verwijst naar ambtenaren die niet-goedgekeurde AI-tools gebruiken — vaak persoonlijke accounts — voor werktaken zonder dat de organisatie hiervan op de hoogte is of toezicht houdt. Uit de index blijkt dat in omgevingen met weinig enablement wereldwijd 64% van de enthousiaste AI-gebruikers vertrouwt op persoonlijke logins en 70% AI gebruikt zonder dat hun manager het weet. Brazilië heeft de laagste enablement-score (41/100) en een van de hoogste enthousiasme-scores (60/100) — precies de combinatie die het grootste shadow AI-risico oplevert. Naarmate AI evolueert richting agentische systemen die autonoom handelen, nemen deze risico’s toe — ongecontroleerde agents kunnen veel sneller data blootstellen dan een menselijke gebruiker. Gevoelige burgerdata die beschermd is onder de Braziliaanse LGPD en ANPD-regels kan worden ingevoerd in publieke AI-modellen zonder audittrail, zonder dataclassificatiecontroles en zonder forensische mogelijkheden. Bovendien kan het gebruik van publieke AI zonder goedgekeurde systemen de juridische verantwoordelijkheid verschuiven van de instelling naar de individuele ambtenaar.

Organisaties moeten de overstap maken van informeel, zelfgestuurd AI-gebruik naar veilige, institutioneel ondersteunde adoptie. Dit betekent het inzetten van goedgekeurde enterprise AI-tools met ingebouwde data governance-controles — platforms die gevoelige data binnen het private netwerk houden, terwijl productiviteit met AI-assistenten als Claude, ChatGPT en Copilot mogelijk blijft. Data security posture management (DSPM) moet gevoelige data classificeren en beleid automatisch afdwingen. Onveranderlijke audit logs moeten alle AI-data-interacties volgen. En incident response-mogelijkheden moeten aanwezig zijn voordat er wordt opgeschaald. Naarmate agentische AI zijn intrede doet, hebben organisaties ook zero-trust-controles nodig voor niet-menselijke identiteiten, sandboxed uitvoeringsomgevingen en realtime anomaliedetectie voor operaties op machinesnelheid. Oplossingen zoals de Secure MFT Server van Kiteworks, afgestemd op het LGPD- en ANPD-regelgevend kader van Brazilië, laten zien hoe organisaties het AI-momentum dat hun personeel al heeft opgebouwd kunnen ondersteunen, terwijl ze compliance waarborgen en burgerdata beschermen.

Saoedi-Arabië (66/100), Singapore (58/100) en India (58/100) zijn de best scorende landen. Het verhaal van India is het meest relevant voor Brazilië — beide landen tonen veel enthousiasme en snelle adoptie. Maar India combineerde het enthousiasme met de overheidsstrategie “AI for All”, gratis door de overheid aangeboden cursussen en consistente positieve communicatie die institutioneel momentum creëerde naast individueel initiatief. Singapore en Saoedi-Arabië boden gecentraliseerde platforms, goedgekeurde tools en duidelijke governance vanuit de top. De kans voor Brazilië is om een vergelijkbaar pad te volgen: het wereldleidende grassroots-enthousiasme omzetten in institutioneel ondersteunde, veilig bestuurde adoptie — voordat informeel gebruik compliance-risico’s creëert die de vooruitgang van ambtenaren ondermijnen.

Aan de slag.

Het is eenvoudig om te beginnen met het waarborgen van naleving van regelgeving en het effectief beheren van risico’s met Kiteworks. Sluit je aan bij de duizenden organisaties die vol vertrouwen privégegevens uitwisselen tussen mensen, machines en systemen. Begin vandaag nog.

Table of Content
Share
Tweet
Share
Explore Kiteworks