Gartner zei precies wat wij al dachten over AI-governance
Ik lees al langer Gartner-rapporten dan ik zou willen toegeven. De meeste bevestigen wat professionals al vermoeden. Sommige dagen aannames uit. En af en toe verschijnt er een rapport waardoor je even stilstaat: eindelijk zegt iemand het hardop.
Het rapport van december 2025 van Avivah Litan, Max Goss en Lauren Kornutick, “Enterprises Should Augment Microsoft Purview and Agent 365 With Independent AI TRiSM Controls”, is zo’n rapport.
De titel alleen al is opvallend. Gartner zegt niet dat de nieuwe AI data governance-mogelijkheden van Microsoft slecht zijn. Ze zeggen dat ze niet toereikend zijn. En ze zijn behoorlijk direct over waarom.
Het lock-in probleem waar niemand over wil praten
Dit is het punt met Microsofts benadering van AI governance: het werkt uitstekend als je volledig binnen het Microsoft-ecosysteem blijft. Entra Agent ID, de nieuwe Purview AI-agents, het beveiligingsdashboard, dit zijn legitieme vooruitgangen. Dat meen ik oprecht.
Maar Gartner wijst op iets dat overduidelijk zou moeten zijn, maar blijkbaar niet is: de diepste audit- en beschermingsfuncties vereisen dat agents geregistreerd zijn in Entra ID. Niet geregistreerd? Dan heb je hooguit basiszichtbaarheid. En registratie is opt-in. Zonder goede toegangscontrole vlieg je blind.
Denk daar eens over na. Je AI-databeschermingsstrategie hangt af van AI-agents die zichzelf vrijwillig registreren.
Het rapport merkt ook op dat minstens 50% van de organisaties E3-licenties aanhoudt voor veel medewerkers, terwijl de geavanceerde Purview-controls historisch E5 vereisten. Dus zelfs binnen Microsofts eigen ecosysteem is er een governance-kloof op basis van licentieniveau. Dat voelt… problematisch.
Eigenlijk moet ik dat heroverwegen. Het is niet alleen problematisch, het creëert een tweedelige beveiligingsstatus binnen dezelfde organisatie. Sommige gebruikers krijgen gereguleerde AI; anderen niet. Voldoen aan vereisten voor naleving van regelgeving wordt onder die omstandigheden vrijwel onmogelijk. Dat is geen houdbaar model.
“Vendor safeguards stoppen bij hun eigen grenzen”
Dit is waarschijnlijk de belangrijkste zin uit het hele rapport. Gartner stelt duidelijk dat geen enkele cloudprovider runtime-controle kan afdwingen over AI-agents zodra ze opereren in de omgeving van een andere provider. Microsoft kan niet bepalen wat er in AWS gebeurt. AWS kan niet bepalen wat er in Azure gebeurt. Niemand reguleert wat er on-premises gebeurt, tenzij je daar iets plaatst dat dat doet.
Ik zeg al jaren variaties op dit thema over gegevensbeheer en datasoevereiniteit in het algemeen, dus het is bevestigend om te zien dat Gartner dezelfde logica toepast op AI-agents. Maar het is ook zorgwekkend hoe weinig organisaties deze verbanden lijken te leggen.
Wanneer je gevoelige data het Microsoft-tenant verlaat, en dat zal gebeuren, want zo werkt zakendoen, volgen de Purview-controls niet mee. Je MIP-sensitiviteitslabels? Dat is metadata. Dat zijn instructies. Maar zonder iets dat die instructies afdwingt op de bestemming, zonder goede DRM-controls, zijn het gewoon… labels.
Het Guardian Agent-concept
Gartner introduceert het idee van “onafhankelijke guardian agents” die AI-agents over platforms en clouds heen kunnen superviseren. Ze tonen zelfs een diagram waarin guardian agents boven platform-specifieke agent-frameworks zitten en zo toezicht houden op ondernemingsniveau.
Wat mij opvalt aan deze benadering is hoe nauw het aansluit bij wat wij bouwen met het Private Data Network-concept. Niet omdat we specifiek aan AI-agents dachten, dat deden we aanvankelijk niet, maar omdat het onderliggende probleem hetzelfde is: hoe beheer je gevoelige data als die door systemen beweegt die je niet beheert?
Ons antwoord is: creëer een onafhankelijke handhavingslaag. Vertrouw niet op het bronplatform om de data te beheren. Vertrouw niet op het bestemmingsplatform. Plaats governance ertussen, zodat je consequent beleid kunt toepassen, ongeacht de herkomst of bestemming. Deze zero trust beveiligingsaanpak zorgt ervoor dat bescherming met de data meereist.
Nu ik erover nadenk, is dit precies wat Gartner beschrijft voor AI governance. Ze gebruiken alleen andere terminologie.
Wat echt telt voor AI Agent Governance
Laat me specifiek zijn over wat organisaties volgens mij nodig hebben, gebaseerd op dit rapport en gesprekken die we het afgelopen jaar met CISO’s hebben gevoerd. De CISO Dashboard-inzichten die wij bieden weerspiegelen dezelfde prioriteiten.
Ten eerste heb je authenticatie en identiteit nodig die over platforms heen werkt. We hebben onze MCP Server met OAuth 2.0 gebouwd, juist omdat AI-agents die toegang hebben tot bedrijfsdata goede IAM-verificatie en multi-factor authentication nodig hebben. Elke. Keer. Opnieuw. En die inloggegevens mogen nooit, ik kan dit niet genoeg benadrukken, nooit worden blootgesteld aan de LLM-context. Prompt injection-aanvallen zijn echt, en ze zullen alleen maar complexer worden.
Ten tweede heb je beleidsafdwinging nodig die werkt tijdens runtime, niet alleen bij configuratie. Alleen een beleid instellen en hopen dat het standhoudt is niet genoeg. Elke data-toegang moet worden geëvalueerd op basis van de actuele omstandigheden: wie is de gebruiker, waar bevindt deze zich, wat is de gevoeligheid van de data, welke actie probeert men uit te voeren? Dat is op attributen gebaseerde toegangscontrole (ABAC), en dat moet realtime gebeuren. Alleen RBAC is niet voldoende voor deze mate van granulariteit.
Ten derde, en hier word ik een beetje gepassioneerd, heb je logs nodig die echt alles vastleggen. Een volledige audittrail is niet onderhandelbaar. Het rapport noemt dat Microsoft 365 logboekvermeldingen tot 72 uur kan vertragen en logging afknijpt tijdens periodes van hoge activiteit. Juist dan heb je volledige logs nodig. Aanvallen veroorzaken activiteitspieken. Als je logging afknijpt tijdens pieken, ben je blind op het moment dat het er het meest toe doet.
De realiteit van bedreigingen van binnenuit
Gartner besteedt veel aandacht aan bedreigingen van binnenuit en merkt op dat geavanceerde insiders nog steeds data kunnen exfiltreren via malafide AI-agents door de GSA-client te pauzeren, onbeheerde apparaten te gebruiken of niet-geregistreerde agents te draaien. Daarom is een robuuste incident response-capaciteit van belang.
Dit spreekt mij aan omdat het overeenkomt met wat wij van klanten horen. De externe dreiging krijgt alle aandacht, maar het risico van binnenuit, of het nu kwaadwillig of per ongeluk is, is een aanzienlijke en vaak onderschatte blootstelling. Effectieve DLP-strategieën moeten beide scenario’s dekken. En AI-agents creëren nieuwe aanvalsvectoren. Een insider die misschien aarzelt om zichzelf een gevoelig document te mailen, denkt er mogelijk niet bij na om een AI-assistent te vragen “help dit document te analyseren” en de inzichten te exporteren.
Onze benadering is altijd geweest: ga uit van een datalek en ontwerp daarop. SafeVIEW laat gebruikers data bekijken zonder deze te bezitten, het bestand wordt nooit gedownload, ze kijken naar een gestreamde afbeelding met watermerk. SafeEDIT werkt vergelijkbaar voor bewerken: het document blijft op onze servers, de gebruiker bewerkt via een videostream van een virtueel bureaublad. Deze benadering van bewerken zonder bezit betekent dat zelfs als iemand is gecompromitteerd, de data de gecontroleerde omgeving niet verlaat.
Is dit frictie? Ja. Maar het is gepaste frictie voor gevoelige data. Juiste dataclassificatie, gecombineerd met de Data Policy Engine, bepaalt dynamisch wanneer die frictie van toepassing is op basis van de data, de gebruiker en de context.
Over niet Microsoft zijn
Laat ik duidelijk zijn: ik ben niet anti-Microsoft. We integreren uitgebreid met Microsoft. Onze klanten gebruiken SharePoint en OneDrive en Outlook via onze Microsoft Office 365-plugin. We nemen MIP-sensitiviteitslabels over en handhaven beleid op basis daarvan.
Maar Gartner heeft gelijk dat volledig vertrouwen op Microsoft voor governance uitdagingen creëert voor risicobeheer cyberbeveiliging. Niet omdat Microsoft iets verkeerd doet, maar omdat geen enkele leverancier alles kan beheren. De bewoording in het rapport is het citeren waard: “Alleen een neutrale, vertrouwde guardian agent-laag kan universele registratie en routering afdwingen om het gat te dichten dat geen enkele aanbieder alleen kan oplossen.”
Dat is wat wij proberen te zijn. Niet ter vervanging van Microsofts governance-mogelijkheden, maar als aanvulling. Een laag die die mogelijkheden uitbreidt buiten de tenantgrens, naar externe samenwerking via Kiteworks beveiligde bestandsoverdracht, naar externe AI-systemen via onze AI Data Gateway, naar de weerbarstige realiteit van hoe organisaties daadwerkelijk werken.
Waar ik nog onzeker over ben
Ik heb hier niet alle antwoorden. Het AI risk governance-domein ontwikkelt zich snel, sneller dan wie dan ook volledig kan bijhouden. Microsofts preview-mogelijkheden zullen uiteindelijk GA bereiken. Andere platforms ontwikkelen hun eigen benaderingen. Het Model Context Protocol dat onze MCP Server implementeert is van Anthropic, en wij gokken dat het een standaard wordt, maar ik kan het mis hebben.
Waar ik wel vertrouwen in heb, is het architectonische principe: onafhankelijke governance-lagen die niet afhankelijk zijn van één enkele leverancier voor handhaving. Een echte zero trust-architectuur lijkt mij juist, ongeacht hoe specifieke technologieën zich ontwikkelen.
En ik ben ervan overtuigd dat organisaties die nu AI governance en gegevensnaleving serieus nemen, voordat een datalek hen ertoe dwingt, er veel beter voorstaan dan degenen die wachten tot leveranciers het voor hen oplossen.
Het gesprek met de analist
Over gesproken: als je dit leest en toegang hebt tot deze Gartner-analisten, zou ik je aanraden met hen in gesprek te gaan over dit onderwerp. Avivah Litan denkt al lang na over AI-risico en TPRM, en het TRiSM-framework is inhoudelijk sterk. We zijn van plan alle drie de analisten te informeren over onze aanpak van deze problemen, en ik vermoed dat die gesprekken ons stappenplan zullen beïnvloeden op manieren die ik niet kan voorspellen.
Zo hoort het ook te werken, denk ik. Leveranciers die alleen met analisten praten als ze aandacht willen, missen het punt. De echte waarde zit in de dialoog.
En wil je meer weten over hoe Kiteworks deze uitdagingen aanpakt, neem contact met ons op of plan vandaag nog een demo op maat.