Beveiliging blokkeert schaalvergroting van Agentic AI: Stanford bevestigt belangrijkste belemmering
Het Stanford Institute for Human-Centered Artificial Intelligence publiceerde deze maand zijn 2026 AI Index Report. De meeste berichtgeving richtte zich op de technologie-race tussen de VS en China — Chinese modellen die tot op 2,7 procentpunt van de beste Amerikaanse modellen naderen, Amerikaanse AI-investeringen die in 2025 $285,9 miljard bereiken. Die bevindingen zijn belangrijk. Maar de meer ingrijpende inzichten staan in de secties die de meeste berichtgeving oversloegen, vooral over verantwoordelijke AI, governance en het opschalen van agentic AI.
Belangrijkste inzichten
- Beveiliging en risico’s zijn de grootste belemmering voor het opschalen van agentic AI. Uit de 2026 AI Index van Stanford blijkt dat 62% van de organisaties beveiliging en risico als belangrijkste blokkade noemt — belangrijker dan technische beperkingen (38%), onzekerheid over regelgeving (38%) en tekortkomingen in tooling voor verantwoordelijke AI (32%). Zodra de vraag verschuift van generatieve naar agentic AI, wordt beveiliging de dominante beperking.
- AI-incidenten clusteren, ze worden niet alleen geteld. Het aandeel organisaties dat minstens één AI-incident meldt, bleef stabiel op 8% in zowel 2024 als 2025, maar de clustering veranderde sterk. Organisaties met 3–5 incidenten stegen van 30% naar 50%, terwijl die met slechts 1–2 incidenten daalden van 42% naar 29%. AI-incidenten komen dus steeds vaker herhaaldelijk voor binnen dezelfde organisaties — vaak de organisaties met de meest agressieve adoptie.
- Zelfbeoordeelde incidentrespons-capaciteit neemt af. Organisaties die hun AI-incidentrespons als “uitstekend” beoordelen, daalden van 28% naar 18% tussen 2024 en 2025. Het aandeel met een “goede” respons daalde van 39% naar 24%. Organisaties krijgen meer AI-incidenten en voelen zich minder in staat om ze aan te pakken.
- Risicoperceptie is gelijkgetrokken met de operationele realiteit. Bezorgdheid over cyberbeveiligingsrisico steeg van 66% naar 72%, bezorgdheid over naleving van regelgeving van 63% naar 72%, en bezorgdheid over onnauwkeurigheid sprong 14 punten van 60% naar 74%. AI-gedreven databeveiliging en compliance-risico’s zijn nu mainstream zorgen, geen speculatieve.
- Adoptie van Responsible AI-beleid versnelt, maar implementatiebarrières blijven bestaan. Organisaties zonder RAI-beleid daalden van 24% naar 11% op jaarbasis. Maar kennis- en opleidingslacunes blijven het grootste obstakel voor volledige implementatie (59%, gestegen van 51%), gevolgd door beperkte middelen (41%) en technische beperkingen (38%). Organisaties willen kant-en-klare, duidelijke controls — niet nóg meer beleidsdocumenten.
Dit is de bevinding die de manier waarop elk bestuur, CISO en compliance officer naar AI-inzet in 2026 kijkt, zou moeten veranderen.
Toen Stanford organisaties vroeg wat hen belemmert om agentic AI op te schalen — AI-agenten die in staat zijn om meerstapsworkflows uit te voeren, met tools te interacteren en autonoom data te manipuleren — scoorden beveiligings- en risicozorgen met 62% hoger dan alle andere barrières. Technische beperkingen kwamen uit op 38%. Onzekerheid over regelgeving op 38%. Tekorten in tooling en controls voor verantwoordelijke AI op 32%. Beperkte middelen en onduidelijke business value volgden verderop.
Let op die volgorde. Beveiliging staat niet gelijk aan andere zorgen. Het staat niet op de tweede plaats na onzekerheid over regelgeving. Het is de dominante beperking — met een marge van 24 procentpunt ten opzichte van de eerstvolgende factor. Organisaties hebben moeite met het opschalen van agentic AI niet omdat de technologie onvolwassen is of het budget ontbreekt. Ze worstelen omdat ze het datatoegangbeheer dat autonome agenten vereisen, niet kunnen beheersen.
De incidentdata vertellen een preciezer verhaal dan de krantenkoppen
Veel berichtgeving over het Stanford-rapport presenteert de AI-incidentdata als “362 incidenten in 2025, tegen 233 in 2024” — verwijzend naar het aantal gedocumenteerde schadegevallen in de AI Incident Database. Die weergave klopt, maar is analytisch onvolledig.
De onderliggende enquêtegegevens van Stanford geven een preciezer beeld van waar AI-incidenten daadwerkelijk plaatsvinden. Het aandeel organisaties dat minstens één AI-incident meldt, bleef gelijk op 8% in zowel 2024 als 2025. Wat veranderde, was de clustering. Onder organisaties die incidenten hadden, steeg het aandeel met 3–5 incidenten van 30% naar 50%. Het aandeel met slechts 1–2 incidenten daalde van 42% naar 29%.
Dit onderscheid is belangrijk. Het betekent dat AI-incidenten zich niet verspreiden over meer organisaties — ze concentreren zich binnen organisaties die al incidenten hebben meegemaakt. De meest waarschijnlijke verklaring is ook de meest ongemakkelijke: Organisaties met de meest agressieve AI-adoptie genereren de meeste incidenten, en ze leren niet snel genoeg om herhaling te voorkomen.
De data over incidentrespons-capaciteit bevestigen deze lezing. Organisaties die hun AI-incidentrespons als “uitstekend” beoordelen, daalden van 28% naar 18% in één jaar. Het aandeel met een “goede” respons daalde van 39% naar 24%. Ondertussen steeg “voldoende” van 19% naar 32%, en “verbetering nodig” van 13% naar 21%. Organisaties worden minder zeker van hun vermogen om AI-incidenten aan te pakken, terwijl de frequentie binnen de getroffen groep juist toeneemt.
Het patroon is duidelijk. Herhaalde AI-incidenten bij agressieve gebruikers, afnemende respons-capaciteit, en een stabiel (niet dalend) incidentpercentage in de bredere populatie. Het probleem verspreidt zich niet — het verdiept zich.
Risicoperceptie is eindelijk gelijkgetrokken met de realiteit
De data van Stanford laten een betekenisvolle verschuiving zien in hoe risico wordt waargenomen bij de onderzochte organisaties. Tussen 2024 en 2025 steeg het aandeel respondenten dat specifieke AI-risico’s als “relevant” beschouwt in elke categorie die raakt aan databeveiliging.
Bezorgdheid over onnauwkeurigheid steeg van 60% naar 74% — een sprong van 14 punten. Bezorgdheid over cyberbeveiliging steeg van 66% naar 72%. Bezorgdheid over naleving van regelgeving steeg van 63% naar 72% — een stijging van 9 punten. Persoonlijke privacy bleef hoog met een lichte groei.
Dit zijn geen randstandpunten meer. Ongeveer drie op de vier organisaties beschouwen AI-gedreven databeveiliging, compliance en nauwkeurigheidsrisico’s nu als materiële zorgen. Het 2026 Thales Data Threat Report bevestigt deze bevinding vanuit een andere invalshoek — 70% van de respondenten noemt snelle veranderingen in het AI-ecosysteem als hun grootste AI-gerelateerde risico. Het 2026 DTEX/Ponemon Insider Threat Report voegt toe dat 92% van de organisaties zegt dat generatieve AI fundamenteel heeft veranderd hoe medewerkers informatie delen, terwijl slechts 13% AI in hun beveiligingsstrategie heeft geïntegreerd.
Bewustzijn is niet langer de beperkende factor. Operationele capaciteit wel.
Waarom Responsible AI-beleid alleen het gat niet dicht
Stanford documenteerde een tweede opvallende verschuiving naast de risicoperceptie-data. De formele adoptie van Responsible AI-beleid is sterk versneld. Organisaties zonder RAI-beleid daalden van 24% in 2024 naar 11% in 2025 — wat betekent dat bijna negen op de tien organisaties nu een vorm van gecodificeerde AI-governance hebben.
De impactdata bevestigen dat beleid werkt. Organisaties met RAI-beleid rapporteerden minder AI-incidenten (+8 procentpunt ten opzichte van organisaties zonder beleid), betere bedrijfsresultaten (+7 punten), verbeterde bedrijfsvoering (+4 punten) en meer klantvertrouwen (+4 punten). Beleid werkt. Maar het dicht het gat niet alleen.
De barrières voor volledige implementatie vertellen de rest van het verhaal. Stanford vond dat het grootste obstakel voor het implementeren van Responsible AI kennis- en opleidingslacunes zijn — genoemd door 59% van de organisaties, tegen 51% in 2024. Technische beperkingen volgen met 38% (tegen 32%). Beperkte middelen en budgetten 41%. Onzekerheid over regelgeving 38%. Organisatieresistentie en gebrek aan steun van het management komen ook voor, maar zijn minder dominant.
Wat betekent dat patroon? Organisaties falen niet in Responsible AI door gebrek aan overtuiging. Ze falen omdat de expertise om beleid operationeel te maken schaars is, de tooling om beleid af te dwingen onvolwassen is, en de middelen om beide te bouwen beperkt zijn. De duidelijke implicatie is dat organisaties behoefte hebben aan kant-en-klare, duidelijke controls — beleidssjablonen voor dataclassificatie, standaard logging, afdwingen van toestemming en bewaartermijnen, AI-toegangsbescherming — die de afhankelijkheid van schaarse interne expertise verminderen.
Precies dat gat vullen de Kiteworks Secure MCP Server en AI Data Gateway.
Regelgevingskaders komen samen op de data layer
De data van Stanford over regelgevende invloed laten zien welke kaders het besluitvormingsproces rond Responsible AI in 2025 bepalen. De EU General Data Protection Regulation bleef het meest genoemde kader, hoewel de invloed daalde van 65% naar 60%. De EU AI Act en de Amerikaanse AI Executive Order wonnen beide ongeveer 2 procentpunt naarmate ze van concept naar operationele realiteit gingen. ISO/IEC 42001 — de AI Management System Standard — verscheen voor het eerst in de enquête met 36%. Het NIST AI Risk Management Framework bereikte 33%. De OECD AI Principles daalden van 21% naar 16%. Het aandeel organisaties zonder enige regelgevende invloed op hun RAI-praktijken daalde van 17% naar 12%.
Uit die cijfers komen twee patronen naar voren.
Ten eerste worden AI-specifieke kaders (EU AI Act, ISO/IEC 42001, NIST AI RMF) geïmplementeerd als uitbreidingen van bestaande kaders voor gegevensbescherming, niet als geïsoleerde regimes. AI-regulering wordt steeds vaker geïnterpreteerd door de bril van gegevensbescherming — rechtmatigheid, eerlijkheid, doelbinding, dataminimalisatie, bewaartermijnen en beveiliging van verwerking. Het Kiteworks 2026 Forecast Report liet zien dat 82% van de Amerikaanse organisaties nog geen druk voelt van de EU AI Act, maar organisaties die niet geraakt worden door de Act lopen 22–33 punten achter op elk belangrijk AI-control — er ontstaat een tweedeling in de markt.
Ten tweede krijgen standaardgedreven benaderingen steeds meer operationele waarde. De opkomst van ISO/IEC 42001 en de blijvende relevantie van NIST AI RMF suggereren dat organisaties uitvoerbare standaarden willen, niet alleen compliance-vinkjes. Die voorkeur sluit aan bij de implementatiebarrières: organisaties die gehinderd worden door kennislacunes en technische beperkingen willen kaders die specificeren wat te doen, niet alleen wat te bereiken.
De cybersecurity-benchmarkverschuiving die bijna niemand zag
De AI Index van Stanford onderzocht een specifieke benchmark die de aandacht verdient van elke security leader. Cybench — een benchmark die AI-agenten evalueert op cybersecurity-taken — zag het percentage ongestuurde oplossingen stijgen van 15% in 2024 naar 93% in 2025.
Lees dat nog eens. AI-agenten die ongestuurd cybersecurity-taken oplossen, stegen van 15% naar 93% in twaalf maanden.
Dit is de andere kant van de Responsible AI-meetkloof. Terwijl frontiermodellen sterke baseline-veiligheid laten zien (HELM Safety-scores clusteren tussen 0,90 en 0,98 voor de meeste releases in 2024–2025), ontdekte Stanford dat de prestaties van de meeste modellen aanzienlijk dalen onder opzettelijke jailbreak-condities op AILuminate v1.0-tests. De conclusie is operationeel helder: Aanvallers kunnen steeds meer geavanceerde cybersecurity-taken automatiseren met AI, terwijl defensieve modellen die veilig lijken onder normale omstandigheden, toch gejailbreakt kunnen worden om schadelijke output te genereren.
Dit is belangrijk voor hoe organisaties nadenken over AI-governance-architectuur. Als veiligheidsfuncties op modelniveau kunnen worden omzeild door tegenstanders met dezelfde jailbreak-technieken, zijn model-level guardrails niet voldoende als security controls. Governance moet plaatsvinden op de data layer — onafhankelijk afgedwongen van het model, de prompt en het agent-framework.
Hoe Kiteworks inspeelt op de bevindingen van Stanford
Kiteworks speelt op meerdere architectuurniveaus in op de bevindingen van Stanford.
Voor de 62% agentic AI-schaalbarrière: Kiteworks biedt governance op de data layer die least-privilege access afdwingt op inhoudsniveau, niet alleen op applicatieniveau. Elke AI-agentinteractie met gevoelige data verloopt via identiteitsverificatie, op attributen gebaseerde toegangscontrole, encryptie en tamper-evidente audit logging — ongeacht welke instructies de agent heeft ontvangen. Als de data van Stanford laten zien dat organisaties worden geblokkeerd door beveiligingszorgen, biedt Kiteworks het control plane dat deze blokkade wegneemt.
Voor de RAI-implementatiebarrière (59% noemt kennislacunes): Kiteworks levert kant-en-klare controls — vooraf gebouwde compliance-dashboards voor GDPR, HIPAA, CMMC en andere kaders; gecentraliseerde beleidsafdwinging over elk kanaal voor gevoelige data-uitwisseling; en standaard logging die aan bewijsvereisten voldoet. Organisaties hoeven AI-governance niet zelf te ontwerpen.
Voor de daling in incidentrespons-capaciteit: Kiteworks genereert real-time audittrails zonder throttling en zonder premium licentiebeperkingen, direct gekoppeld aan de SIEM van de organisatie. Wanneer een AI-incident optreedt, hebben responders het bewijs om de omvang accuraat te beoordelen in plaats van standaard uit te gaan van het slechtste scenario.
Voor de afstemming op ISO/IEC 42001 en NIST AI RMF: Kiteworks biedt de auditability, toegangscontroles en chain-of-custody documentatie die beide kaders vereisen, en overbrugt AI-specifieke standaarden met bestaande verplichtingen voor gegevensbescherming (GDPR, HIPAA, CMMC).
Wat security leaders moeten doen met de Stanford-data
Ten eerste, beschouw de 62% agentic AI-schaalbarrière als validatie om nu te prioriteren op governance op de data layer. Organisaties die wachten op perfecte AI-specifieke regelgeving zijn straks de organisaties die AI niet kunnen opschalen als hun concurrenten dat wel doen. De barrière is al operationeel — de koplopers zijn degenen die de governance-infrastructuur bouwen om deze weg te nemen.
Ten tweede, analyseer het clusteringpatroon binnen je eigen organisatie. Als je AI-incidenten hebt meegemaakt in 2025, suggereren de Stanford-data dat je in 2026 meer kans hebt op extra incidenten — niet minder. Onderzoek wat de herhaling veroorzaakt. Het is zelden één enkele oorzaak.
Ten derde, combineer RAI-beleid met afdwingingsinfrastructuur. De 11% van de organisaties zonder RAI-beleid vormen een krimpende minderheid. De vraag is niet langer óf er beleid moet zijn — maar of het beleid wordt ondersteund door technische controls. Beleid zonder afdwinging is documentatie, geen governance.
Ten vierde, vergelijk je AI-inzet met ISO/IEC 42001 en NIST AI RMF. Deze standaarden krijgen steeds meer gewicht in regelgeving, en hun vereisten vertalen zich direct naar controls die ook voldoen aan GDPR, HIPAA en opkomende Amerikaanse AI-wetgeving op staatsniveau. Door deze kaders nu te adopteren, positioneer je je organisatie voor de versnellende regelgeving die Stanford voorspelt.
Ten vijfde, beschouw de Cybench-bevinding als een wake-up call voor SOC-capaciteit. Als de AI-capaciteit van tegenstanders op cybersecurity-taken in een jaar steeg van 15% naar 93%, moet defensieve AI-capaciteit hetzelfde tempo aanhouden. Maar fundamenteler: de data layer — waar Kiteworks opereert — moet toegangscontroles afdwingen die niet afhankelijk zijn van defensieve modelveiligheid of modelcomplexiteit.
De Stanford 2026 AI Index is een diagnose, geen voorspelling. Organisaties adopteren AI sneller dan ze het kunnen beheren. Incidentfrequentie concentreert zich bij de meest agressieve gebruikers. Respons-capaciteit neemt af terwijl de risicoperceptie stijgt. Beveiliging en risico zijn nu de dominante barrière voor het opschalen van de AI die besturen eisen. En de Responsible AI-meetkloof betekent dat guardrails op modelniveau het niet alleen kunnen dragen.
De organisaties die in 2026 governance op de data layer realiseren, zijn degenen waarvan de AI-inzet niet bijdraagt aan het incidentaantal van 2027 — en degenen waarvan agentic AI-programma’s daadwerkelijk volledige schaal bereiken.
Veelgestelde vragen
De Stanford-data wijzen op governance op de data layer in plaats van veiligheid op modelniveau. Specifieke controls zijn: identiteitsverificatie bij elke AI-agentinteractie; op attributen gebaseerde toegangscontrole op inhoudsniveau; doelbinding die voorkomt dat agenten data buiten hun gedefinieerde scope benaderen; tamper-evidente audittrails voor elke data-access; en kill switches waarmee misdragende agenten direct kunnen worden beëindigd. Het Kiteworks 2026 Forecast Report liet zien dat 63% van de organisaties geen doelbinding kan afdwingen bij AI-agenten en 60% geen misdragende agent kan beëindigen — precies de lacunes die Stanford aanwijst als blokkades voor opschaling.
De data van Stanford tonen aan dat het aandeel organisaties dat minstens één AI-incident meldt, stabiel bleef op 8% in zowel 2024 als 2025. Wat veranderde, is de clustering: Organisaties met 3–5 incidenten stegen van 30% naar 50%, terwijl die met slechts 1–2 incidenten daalden van 42% naar 29%. Dit betekent dat AI-incidenten zich concentreren binnen organisaties die al incidenten hebben meegemaakt, waarschijnlijk de organisaties met de meest agressieve adoptie. Voor organisaties die een AI-incident hebben gehad, is de kans op extra incidenten in het volgende jaar aanzienlijk hoger dan voor organisaties zonder incidenten. Oorzakenanalyses en architecturale review zijn noodzakelijk.
Stanford vond dat het aandeel organisaties zonder RAI-beleid op jaarbasis daalde van 24% naar 11%, maar het grootste obstakel voor implementatie is kennis- en opleidingslacunes (59%). Het patroon suggereert dat organisaties wel overtuiging en richting hebben, maar operationele tooling en expertise missen. De Stanford-data ondersteunen de vraag naar kant-en-klare controls — vooraf gebouwde beleidssjablonen, standaard logging, afdwingen van toestemming en bewaartermijnen, AI-toegangsbescherming — die de afhankelijkheid van schaarse interne expertise verminderen. Kiteworks biedt deze kant-en-klare architectuur via compliance-dashboards, gecentraliseerde beleidsafdwinging en uniforme audittrails.
Stanford vond dat GDPR de meest genoemde regelgevende invloed blijft met 60% (tegen 65%), terwijl ISO/IEC 42001 voor het eerst verscheen met 36% en NIST AI RMF 33% bereikte. Het patroon geeft aan dat AI-specifieke standaarden worden geïmplementeerd als uitbreidingen van bestaande kaders voor gegevensbescherming, niet als aparte regimes. Compliance-teams moeten AI-inzet tegen alle vier de kaders tegelijk afzetten — de controls die aan één voldoen, voldoen doorgaans aan alle, en multi-framework alignment positioneert de organisatie voor de versnellende regelgeving die de Stanford-data voorspellen.
Cybench evalueert AI-agentprestaties op cybersecurity-taken. De sprong van 15% naar 93% in ongestuurde oplossingspercentages betekent dat tegenstanders steeds meer geavanceerde cybersecurity-operaties kunnen automatiseren met AI. In combinatie met de bevinding van Stanford op AILuminate dat de veiligheidsperformance van de meeste frontiermodellen sterk daalt onder jailbreak-condities, is de architecturale implicatie duidelijk: Veiligheid op modelniveau is niet voldoende als security control. Governance moet plaatsvinden op de data layer — onafhankelijk afgedwongen van het model, de prompt of het agent-framework. Kiteworks implementeert dit via de Secure MCP Server en AI Data Gateway, zodat AI-agenten geen toegang krijgen tot gevoelige data, ongeacht of de veiligheidsfuncties van het model zijn omzeild.