2026 Data Security Voorspelling: 15 voorspellingen die elke beveiligingsleider moet weten
Elke organisatie die we hebben onderzocht, heeft agentic AI op de roadmap staan. Elke. Geen enkele uitzondering.
Laat die bevredigende statistiek even op je inwerken. Niet 95%. Niet “de meeste ondernemingen”. Honderd procent.
Alleen al deze bevinding zou de manier waarop securityleiders hun plannen voor 2026 maken, moeten veranderen. De vraag is niet of AI je gevoelige data zal raken. Dat gebeurt nu al. De vraag is of jouw organisatie de juiste controles heeft om het te beheren wanneer—niet als—er iets misgaat.
Belangrijkste inzichten
- De kloof tussen governance en containment is de bepalende beveiligingsuitdaging van 2026. Organisaties investeerden fors in het monitoren van AI-systemen, maar verwaarloosden de controles die ze daadwerkelijk kunnen stoppen. 63% kan geen doellimieten afdwingen voor AI-agents, 60% kan ontsporende agents niet snel beëindigen en 55% kan AI-systemen niet isoleren van gevoelige netwerken—een kloof van 15-20 punten tussen observeren en ingrijpen.
- Betrokkenheid van de raad van bestuur is de sterkste voorspeller van AI-gereedheid. 54% van de raden heeft AI-governance niet in de top vijf prioriteiten, en deze organisaties lopen 26-28 punten achter op elke AI-capaciteit. De overheid is het meest blootgesteld: 71% van de raden is niet betrokken terwijl ze burgerdata en kritieke infrastructuur beheren.
- De overheid loopt een generatie achter met AI-controles. 90% van de overheidsorganisaties mist doellimieten, 76% heeft geen kill-switch, en 33% heeft helemaal geen AI-specifieke controles. Dit is geen incrementele kloof—het is een categorisch verschil dat transformatie vereist in plaats van checklist-naleving.
- De EU AI-wet wordt de wereldwijde standaard voor governance. Organisaties die niet onder de EU AI-wet vallen, lopen 22-33 punten achter op alle belangrijke AI-controles. 82% van de Amerikaanse organisaties voelt de druk nog niet, maar de regelgeving verspreidt zich via toeleveringsketens, multinationale operaties en competitieve benchmarking, of organisaties het nu beseffen of niet.
Audittrails voorspellen AI-volwassenheid beter dan sector, omvang of budget. Organisaties zonder audittrails van bewijskwaliteit scoren 20-32 punten lager op elk gemeten AI-governancemetriek. De 33% die helemaal geen audittrails heeft en de 61% met gefragmenteerde logs bouwen AI-governance op een fundament dat het niet kan dragen.
Gebaseerd op onze enquête onder 225 security-, IT- en risicoleiders uit 10 sectoren en 8 regio’s is het antwoord voor de meeste organisaties een duidelijk nee. En de kloof tussen wat organisaties hebben ingezet en wat ze daadwerkelijk kunnen beheersen is groter dan de meeste bestuurders beseffen—of willen toegeven.
Dit onderzoek identificeert 15 voorspellingen voor enterprise data security in 2026. Wat we zien is een markt gevangen tussen ambitie en realiteit: aanzienlijke gaten in AI-specifieke capaciteiten, een groeiende kloof tussen organisaties met aandacht van de raad voor AI-data governance en die zonder, en een fundamentele mismatch tussen hoe organisaties AI-systemen monitoren versus hoe ze ze kunnen stoppen.
2026 is het jaar waarin AI-data security verschuift van “opkomende zorg” naar “operationele realiteit”. De afrekening waar securityleiders al voor waarschuwen? Die komt eraan. Dit is wat dat betekent voor jouw organisatie.
Tabel 1: 15 voorspellingen in één oogopslag
| Voorspelling | Belangrijkste bevinding | Vertrouwen |
|---|---|---|
| 1 | DSPM wordt de norm | 61% kan tagging niet afdwingen |
| 2 | Governance wordt “managed-by-default” | 37% onder Managed-volwassenheid |
| 3 | Gecentraliseerde AI-gateways worden control plane | 57% niet-gecentraliseerd |
| 4 | Agentic AI wordt mainstream | 100% op roadmap |
| 5 | Containment-controles worden strijdtoneel | 63% mist doellimieten |
| 6 | AI-risico’s domineren de securityagenda | Slechts 36% heeft zichtbaarheid |
| 7 | Toeleveringsketen breidt uit naar AI-attestaties | 72% geen SBOM |
| 8 | Risico door derden draait om zichtbaarheid | 89% nooit IR geoefend met partners |
| 9 | IR wordt AI-gedreven | 60% mist AI-anomaliedetectie |
| 10 | Audittrails worden essentieel | 33% mist trails; 61% gefragmenteerd |
| 11 | Training-datacontroles worden regulatoir | 78% kan niet valideren |
| 12 | AI-governance bereikt elke bestuurskamer | 54% van de raden niet betrokken |
| 13 | EU AI-wet creëert wereldwijd sjabloon | 22-33 punten control gap |
| 14 | PQC wordt mainstream | 84% niet geïmplementeerd |
| 15 | Datasoevereiniteit wordt AI-noodzaak | 29% noemt grensoverschrijdende blootstelling |
Governance versus containment gap: het centrale probleem waar niemand over wil praten
Organisaties hebben de afgelopen twee jaar geïnvesteerd in AI-data governance controles. Ze hebben human-in-the-loop toezicht uitgerold (59% heeft dit), continue monitoring (58%) en dataminimalisatie (56%). Dit zijn waardevolle capaciteiten. Securityteams kunnen dashboards tonen. Ze kunnen auditors documentatie laten zien. Ze kunnen aantonen dat er ergens iemand meekijkt.
Maar meekijken is niet stoppen. En dat verschil is belangrijker dan de meeste organisaties erkennen.
De investering in containment—de mogelijkheid om AI-systemen te stoppen als er iets misgaat—vertelt een heel ander verhaal:
- 63% van de organisaties kan geen doellimieten afdwingen voor AI-agents
- 60% kan een ontsporende agent niet snel beëindigen
- 55% kan AI-systemen niet isoleren van bredere netwerktoegang
Lees deze cijfers nog eens. Bijna twee derde van de organisaties heeft AI-agents ingezet die ze niet kunnen beperken. Zes op de tien kunnen de kill switch niet omzetten als een agent iets doet wat niet de bedoeling is. Meer dan de helft kan laterale beweging niet voorkomen als een AI-systeem gecompromitteerd raakt of zich onverwacht gedraagt.
Dat is een kloof van 15-20 punten tussen observeren en handelen. De meeste organisaties kunnen een AI-agent iets onverwachts zien doen. Ze kunnen niet voorkomen dat deze buiten zijn bevoegdheden treedt, hem snel uitschakelen of isoleren van gevoelige systemen. Ze hebben uitgebreide observatiedekken gebouwd voor een probleem dat eigenlijk zekeringen vereist.
Deze governance-versus-containment gap is de centrale security-uitdaging richting 2026. Waarom bestaat deze? Omdat organisaties investeerden in controles die makkelijker te implementeren waren—logging vereist geen architectuurwijzigingen—en makkelijker uit te leggen aan auditors. “We monitoren” klinkt als controle, zelfs als het dat niet is. Het moeilijkere werk van echte stopkracht bouwen werd uitgesteld. En uitgesteld. En nog eens uitgesteld.
De pipelines die deze kloof moeten dichten zijn de grootste in onze enquête—39% van de organisaties heeft doellimieten op de implementatieroadmap, 34% heeft kill-switch functionaliteit gepland. Organisaties weten precies wat er mis is. Ze hebben exact de juiste gaten geïdentificeerd. De zelfkennis is bijna geruststellend.
Maar pipelines zijn geen uitvoering. Dat zijn ze nooit geweest. Historisch gezien wordt 60-70% van securityroadmaps op tijd en volgens scope uitgerold. Zelfs met agressieve uitvoering zal een kwart van de organisaties aan het eind van 2026 nog steeds basis containment-controles missen. En hier komt het ongemakkelijke deel: De organisaties die AI het snelst uitrollen, zijn vaak degenen met de grootste containment-gaten. Ze versnellen een bocht in die ze niet kunnen nemen, in de hoop dat ze de controles op tijd op orde krijgen.
Dat is geen strategie. Dat is hopen met een budget.
Tabel 2: Reality check risico door derden
| Capaciteit | Huidige status |
|---|---|
| Zicht op partner AI-data-afhandeling | Slechts 36% heeft het |
| Ooit IR geoefend met derde partijen | Slechts 11% heeft het gedaan |
| Gezamenlijke IR-draaiboeken met partners | Slechts 13% heeft ze |
| Geautomatiseerde kill switch voor partner-toegang | Slechts 16% heeft het |
Waarom audittrails alles voorspellen
Één bevinding verraste ons meer dan alle andere: Organisaties zonder audittrails van bewijskwaliteit tonen aanzienlijk lagere volwassenheid op elk AI-gebied. Niet met een paar procentpunten—maar met 20 tot 32 punten.
Organisaties zonder audittrails hebben slechts half zoveel kans op AI-trainingdata recovery (26% versus 58%). Ze lopen 20 punten achter op doellimieten, 26 punten achter op human-in-the-loop controles. Dit zijn geen incrementele verschillen. Ze vertegenwoordigen categorisch verschillende volwassenheidsniveaus. Twee organisaties in dezelfde sector, regio en omvang—één met audittrails, één zonder—lijken totaal niet op elkaar qua AI-data governance. De audittrail-capaciteit voorspelt de rest van de beveiligingsstatus beter dan welke andere factor dan ook die we hebben gemeten.
Toch mist 33% van de organisaties audittrails van bewijskwaliteit volledig. En hier is het deel waar securityleiders van wakker moeten liggen: Nog eens 61% heeft gefragmenteerde logs verspreid over systemen. De logs bestaan. Ze zijn alleen niet geaggregeerd, genormaliseerd of bruikbaar binnen een relevante tijdspanne.
Wanneer incident response nodig is of een auditor kritische vragen stelt, besteden securityteams in deze organisaties uren—soms dagen—aan het handmatig correleren van logs over platforms heen, in een poging te reconstrueren wat er is gebeurd. Ze leggen een puzzel waarvan de stukjes verspreid zijn over een dozijn verschillende dozen, elk met een eigen formaat, eigen retentiebeleid en eigen gaten en inconsistenties.
Dat is geen bewijs. Dat is archeologie. En archeologie houdt niet stand in regelgevende procedures of meldingen van datalekken.
De ongemakkelijke waarheid die infrastructuurteams liever niet horen: Je kunt geen AI-data governance bouwen op gefragmenteerde infrastructuur. Organisaties die audittrails van bewijskwaliteit proberen te bouwen op gescheiden data exchange-systemen—aparte platforms voor e-mail, bestandsoverdracht, MFT, cloudopslag, samenwerkingstools, AI-systemen—bouwen op een fundament dat het gewicht niet kan dragen. De fragmentatie is geen klein ongemak. Het is een structurele beperking die geen enkele tool volledig kan oplossen.
Training data governance vertoont vergelijkbare patronen, met gevolgen die reiken tot in het regelgevingsgebied dat de meeste organisaties nog niet volledig in kaart hebben gebracht. Wanneer toezichthouders vragen: “Hoe weet u zeker dat er geen PII in uw model zit?”—78% van de organisaties kan geen antwoord geven. Ze trainen of fine-tunen modellen zonder de integriteit van inputdata te valideren. Ze hopen dat de trainingsdata schoon is, zonder enig mechanisme om dat te verifiëren.
Wanneer een betrokkene zijn verwijderingsrecht uitoefent onder GDPR, CCPA/CPRA of opkomende AI-regelgeving—53% heeft geen mechanisme om hun data uit getrainde modellen te verwijderen. Ze zullen ofwel opnieuw trainen vanaf nul (duur, tijdrovend, vaak onpraktisch voor productiesystemen) of hopen dat niemand het vraagt (een strategie met een snel aflopende houdbaarheid).
Het “recht om vergeten te worden” komt eraan voor AI. De regelgevende trend is onmiskenbaar—elk groot privacykader breidt de rechten van betrokkenen uit naar AI-training en -inference. En bijna niemand is klaar om te voldoen.
Het board-effect: waarom betrokkenheid van leiders meer voorspelt dan budget of personeel
Betrokkenheid van de raad van bestuur is de sterkste voorspeller van AI-volwassenheid in onze enquête. Sterker dan sector. Sterker dan regio. Sterker dan organisatiegrootte. Sterker dan securitybudget.
54% van de raden heeft AI-data governance niet in hun top vijf onderwerpen. Die organisaties lopen 26-28 punten achter op elke belangrijke AI-metriek. Niet op sommige metrics. Op alle metrics die we hebben gemeten.
Organisaties zonder betrokkenheid van de raad voeren half zo vaak AI-impactanalyses uit (24% versus 52%). Ze lopen 26 punten achter op doellimieten, 24 punten achter op human-in-the-loop controles. Het patroon is consistent en duidelijk: Als raden niet naar AI-data governance vragen, bouwen organisaties het niet. Middelen gaan elders naartoe. Prioriteiten verschuiven naar wat de leiding meet. Securityteams kunnen pleiten wat ze willen, maar zonder aandacht van het bestuur verliest AI-data governance de budgetstrijd.
De variatie per sector vertelt een eigen verhaal. De overheid toont de grootste kloof: 71% van de raden is niet betrokken bij AI-data governance. Professional Services leidt met 80% betrokkenheid—een verschil van 51 punten tussen de achterblijver en de koploper.
Denk na over wat dat in de praktijk betekent: De overheid beheert burgerdata, geclassificeerde informatie en kritieke infrastructuur met de minste toezicht van de raad op AI-risico van alle sectoren die we hebben gemeten. De organisaties met de meest gevoelige data en de hoogste inzet hebben de minste aandacht van leiderschap voor deze opkomende risicofactor.
Bestuursraden in de zorg tonen 55% desinteresse. De financiële sector zit op 40%. Technologie—de sector die deze systemen bouwt en uitrolt—heeft nog steeds 47% van de raden die AI-data governance niet prioriteren.
Deze correlatie wijst op een duidelijke actie, en die is niet technisch: Als AI-data governance niet op de agenda van je raad staat, zet het erop. Securityleiders die wachten tot de raad het probleem zelf ontdekt, laten de tijdlijn aan het toeval over. De data toont dat organisaties waar leiderschap aandacht geeft, de capaciteiten bouwen die ertoe doen. Organisaties waar leiderschap wegkijkt, doen dat niet. Zo direct, en zo voorspelbaar is het.
Tabel 3: Betrokkenheid van de raad per sector
| Sector | Raad NIET betrokken bij AI-governance | Kloof met koploper |
|---|---|---|
| Overheid | 71% | -51 punten |
| Zorg | 55% | -35 punten |
| Technologie | 47% | -27 punten |
| Financiële sector | 40% | -20 punten |
| Professional Services | 20% | Benchmark |
Sector- en regionale bevindingen: de koplopers, de achterblijvers en de lessen
Overheid loopt een generatie achter. Niet een beetje achter—maar categorisch achter. De cijfers zijn zo opvallend dat ze het herhalen waard zijn: 90% mist doellimieten. 76% mist kill-switch functionaliteit. 33% heeft helemaal geen AI-specifieke controles.
Laat dat laatste cijfer bezinken: Een derde van de overheidsorganisaties heeft AI uitgerold zonder iets—geen gedeeltelijke controles, geen ad-hocmaatregelen, niets—dat specifiek regelt hoe die systemen toegang krijgen tot gevoelige data. Ze hebben AI in productieomgevingen. Ze laten burgerdata door systemen stromen. Ze hebben nul AI-specifieke governance die de twee verbindt.
Deze organisaties beheren burgerdata en kritieke infrastructuur met AI-controles die achterlopen op elke andere sector die we hebben gemeten. De AI-data governance uitdaging van de overheid vereist transformatie, geen incrementele verbetering. Een checklist sluit geen generatiekloof. Het aannemen van het EU AI-wet kader als basis—zelfs als het niet wettelijk verplicht is—zou een beginpunt zijn, geen einddoel.
Australië is de benchmark—en het bewijs dat keuzes niet onvermijdelijk zijn. Australische organisaties scoren +10-20 punten op bijna elke metric, met de sterkste implementatiepijplijnen in de enquête. Maar wat Australië echt leerzaam maakt: Ze laten zien dat security en innovatie geen keuzes zijn.
Australische organisaties hebben zowel hogere AI-adoptie als sterkere controles. Ze kiezen niet tussen snel bewegen en goed besturen. Ze doen beide tegelijk en lopen op beide vlakken verder uit. Ze stapelen voordeel op voordeel in plaats van security op te offeren voor snelheid of andersom.
Elke organisatie die beweert dat ze geen controles kunnen implementeren zonder innovatie te vertragen, zou moeten kijken naar wat Australië doet. Het excuus houdt geen stand tegenover het bewijs.
De zorgsector heeft ernstige incident response-gaten ondanks het werken met de meest gevoelige datacategorieën. 77% van de zorgorganisaties heeft hun recovery time objectives niet getest. Ze weten pas hoe lang herstel duurt als ze midden in een incident zitten—het slechtste moment om te ontdekken dat je aannames niet kloppen. 64% mist AI-anomaliedetectie. 68% werkt met handmatige IR-draaiboeken.
Deze organisaties beheren beschermde gezondheidsinformatie met IR-capaciteiten die hun eerste serieuze AI-incident niet zullen overleven. De combinatie van zeer gevoelige data, aanzienlijke regelgevingsrisico’s en ernstige operationele gaten creëert geconcentreerd risico dat iedereen in de sector zorgen zou moeten baren.
Producenten zien overal blinde vlekken. 67% noemt zichtbaarheidsgaten als topzorgen—21 punten boven het wereldwijde gemiddelde. Complexe, meerlaagse toeleveringsketens met nauwelijks inzicht in hoe data erdoorheen stroomt. Risicobeheer door derden waarbij data van de ene naar de andere leverancier gaat, zonder zichtbaarheid bij elke overdracht.
Voor producenten is zichtbaarheid door derden geen nice-to-have of toekomstig roadmap-item. Het is existentieel. Je kunt niet beveiligen wat je niet kunt zien, en producenten zien minder dan bijna iedereen.
Professional Services opereert onder druk—en die druk levert resultaat op. 80% aandacht van de raad. 67% gecentraliseerde gateway-adoptie. 80% met ethische AI-richtlijnen. Deze cijfers leiden bijna elke categorie die we meten. Waarom deze uitschieter?
Klantdata-exposure drijft deze agressieve houding. Elke controlediscussie in professional services wordt bekeken door een specifieke, strenge lens: Wat gebeurt er als klantdata lekt? Wat als gevoelige klantinformatie in een model terechtkomt dat we niet kunnen uitleggen of in een trainingsset die we niet kunnen auditen? Wat gebeurt er met onze reputatie, aansprakelijkheid en klantrelaties?
De angst is terecht. De resulterende governancehouding is wat angstgedreven investering oplevert als het productief wordt gekanaliseerd in plaats van te verdwijnen in verlamming.
Regionale soevereiniteitszorgen verschillen ook sterk, en de patronen laten zien waar handhaving het gedrag al heeft veranderd versus waar organisaties nog op theorie varen.
Organisaties in het Midden-Oosten (VAE en Saoedi-Arabië) tonen 42-45% bezorgdheid over AI-leveranciers—gedreven door expliciete datalokalisatievereisten met echte boetes bij niet-naleving. Duitsland springt eruit met 60% bezorgdheid over ongeautoriseerde verdere deling, bijna het dubbele van het wereldwijde gemiddelde. GDPR-handhaving heeft aansprakelijkheid voor datastromen concreet gemaakt voor Duitse organisaties. Ze hebben collega’s gevolgen zien ondervinden. Ze hebben boetes zien vallen. Ze hebben zich daarop aangepast.
Deze regio’s zien het soevereiniteitsprobleem helder omdat ze de druk van regelgeving al voelen. De meeste anderen varen nog op geleende tijd, in de veronderstelling dat handhaving hen niet zal raken of dat ze tijdig gewaarschuwd worden.
Risico door derden: de zichtbaarheidscrisis die niemand heeft opgelost
Jaarlijkse leveranciersvragenlijsten gaan niet werken in een AI-gedreven omgeving. De checkbox-aanpak voor risicobeheer door derden—een vragenlijst sturen, zorgvuldig geformuleerde antwoorden terugkrijgen, archiveren voor compliance, volgend jaar herhalen—was al ontoereikend voor traditioneel databeheer. Voor AI is het niet alleen ontoereikend. Het is theater.
Maar 89% van de organisaties heeft niets om het te vervangen. Ze weten dat de oude aanpak niet werkt. Ze hebben de nieuwe nog niet gebouwd.
Het zichtbaarheidsprobleem is ernstig en grotendeels onopgelost:
- Slechts 36% heeft enig zicht op hoe partners data in AI-systemen afhandelen
- 89% heeft nooit incident response geoefend met hun derde partijen
- 87% mist gezamenlijke IR-draaiboeken met partners
- 84% heeft geen geautomatiseerd mechanisme om partner-toegang snel in te trekken wanneer nodig
Als een partner wordt getroffen door een datalek—en dat gebeurt regelmatig—zullen bijna negen op de tien organisaties improviseren. Geen draaiboek. Geen oefening. Geen gecoördineerd communicatieplan. De eerste keer dat ze samen met een kritieke leverancier een incident afhandelen, is tijdens een echt incident, wanneer de inzet het hoogst is, de tijd het kortst en niemand de luxe heeft om het onderweg uit te zoeken.
De software supply chain vergroot deze risico’s tot een niveau dat de meeste organisaties nog niet volledig hebben overwogen. 72% van de organisaties kan geen betrouwbare inventarisatie van hun softwarecomponenten overleggen. Wanneer de volgende kwetsbaarheid van het Log4j-formaat opduikt—en die komt er—zal bijna driekwart van de organisaties moeten improviseren om blootstelling te bepalen omdat ze geen software bill of materials hebben. Ze bellen leveranciers, zoeken documentatie, controleren systemen handmatig terwijl de klok tikt.
De AI supply chain is nog erger, want softwarecomponenten hebben tenminste gevestigde inventarisatiestandaarden, ook al gebruikt bijna niemand ze. Voor AI-modelattestaties bestaat geen standaard. Bijna niemand volgt modelherkomst systematisch. Organisaties weten dat ze dit nodig hebben—35% noemt AI supply chain-risico’s in hun top drie zorgen. Ze hebben gelijk om zich zorgen te maken.
Maar de tools en standaarden bestaan nog niet, en organisaties bouwen geen workarounds. Ze wachten tot iemand anders het oplost terwijl ze modellen blijven uitrollen die ze niet volledig kunnen verifiëren. Dat is een berekend risico, en die berekening kan snel achterhaald zijn.
Tabel 4: Reality check risico door derden
| Capaciteit | Huidige status |
|---|---|
| Zicht op partner AI-data-afhandeling | Slechts 36% heeft het |
| Ooit IR geoefend met derde partijen | Slechts 11% heeft het gedaan |
| Gezamenlijke IR-draaiboeken met partners | Slechts 13% heeft ze |
| Geautomatiseerde kill switch voor partner-toegang | Slechts 16% heeft het |
Regelgevende trend: EU AI-wet als feitelijk wereldwijd sjabloon
Organisaties die niet onder de EU AI-wet vallen, lopen 22-33 punten achter op alle belangrijke AI-controles. De verschillen zijn niet incrementeel—ze zijn categorisch:
- 74% van de niet-betrokken organisaties mist AI-impactanalyses (vs. 41% van de betrokkenen)
- 72% mist doellimieten (vs. 46%)
- 84% heeft geen AI red-teaming uitgevoerd (vs. 61%)
- 48% mist human-in-the-loop controles (vs. 26%)
De EU AI-wet creëert een tweedeling in de markt, of organisaties buiten Europa het nu beseffen of niet. Degenen onder regelgevende druk bouwen governance-infrastructuur omdat het moet. Degenen daarbuiten doen dat grotendeels niet omdat het nog niet hoeft. De regulerende druk werkt precies zoals bedoeld—en creëert een divergentie die later duur zal zijn om te dichten.
82% van de Amerikaanse organisaties zegt nog geen druk te voelen van de EU AI-wet. Dat “nog” is veelzeggend. De regelgeving verspreidt zich via mechanismen die geen directe rechtsbevoegdheid vereisen: vereisten voor risicobeheer toeleveringsketen (Europese klanten eisen naleving van Amerikaanse leveranciers), multinationale operaties (elke organisatie die zaken doet in Europa moet voor die activiteiten voldoen), en competitieve benchmarking (wat “goede governance” is wordt bepaald door wie het als eerste bouwt, en dat zijn nu de Europeanen).
Organisaties die de EU AI-wet afdoen als een Europees probleem, zullen zichzelf 22-33 punten achterstand bezorgen op AI-data governance wanneer het kader de wereldwijde norm wordt. Ze halen later in tegen hogere kosten en onder tijdsdruk, of verliezen business aan concurrenten die eerder investeerden. Geen van beide is aantrekkelijk.
Datasoevereiniteit is ook uitgebreid van opslag naar verwerking, en de meeste organisaties hebben hun controles of denkwijze nog niet aangepast. Weten waar data staat is niet meer genoeg. 29% noemt grensoverschrijdende AI-transfers als topzorgen, maar de meesten hebben alleen soevereiniteit opgelost voor opslag—niet voor waar data wordt verwerkt, getraind of geïnferreerd.
Een prompt naar een cloud AI-leverancier kan worden verwerkt in een andere rechtsbevoegdheid, gebruikt om modellen te fine-tunen die elders worden gehost, of outputs genereren die meerdere grenzen passeren voordat ze bij de gebruiker terugkomen. Traditionele dataresidentiecontroles lossen dit niet op. Ze zijn gebouwd voor data in rust, niet voor data die via AI-pijplijnen beweegt. Organisaties die opslag besturen maar verwerking negeren, krijgen steeds ongemakkelijkere compliancegesprekken naarmate toezichthouders inlopen op hoe AI werkt.
Post-quantum cryptografie vormt nog een tijdsdruk die de meeste organisaties negeren of uitstellen. 84% heeft PQC niet geïmplementeerd. Bijna de helft gebruikt het helemaal niet, en we vermoeden dat het echte aantal nog lager ligt—sommige respondenten claimen waarschijnlijk capaciteiten die ze niet hebben.
De “oogsten nu, ontcijferen later”-dreiging is al actief—tegenstanders kunnen nu versleutelde data onderscheppen en wachten tot quantumcomputers het kraken. Voor data die tien jaar of langer vertrouwelijk moet blijven—medische dossiers, financiële informatie, geclassificeerd materiaal, intellectueel eigendom, juridische documenten—sluit het venster om te handelen snel. Organisaties die nog niet zijn begonnen met plannen, lopen al achter op een migratietijdlijn die tot 2030 en verder loopt.
Wat nu te doen: prioritaire acties die niet kunnen wachten
Directe prioriteiten (Q1-Q2 2026):
Sluit het kill-switch gat. 60% van de organisaties kan AI-agents niet snel beëindigen. Wanneer het eerste grote incident dit blootlegt—en dat zal gebeuren, want incidenten leggen altijd capaciteitsgaten bloot—wil je niet aan je raad uitleggen waarom basiscontainment niet op orde was. Dit is de minimale vereiste voor AI in productie, en de meeste organisaties hebben het niet.
Implementeer doellimieten. 63% heeft geen limieten op wat AI-agents mogen doen. Dit is het grootste capaciteitsgat in onze enquête en het meest waarschijnlijk om de media te halen als het misgaat. Een AI-agent die overal bij kan, zal uiteindelijk bij iets komen waar hij niet bij mag.
Controleer je audittrails. 33% mist trails van bewijskwaliteit volledig. Nog eens 61% heeft logs verspreid over systemen die niemand snel kan correleren. Je kunt geen AI-data governance bouwen op gefragmenteerde infrastructuur, hoe goed je tools ook zijn. Als je logs dagen handmatige correlatie vereisen om een incident te reconstrueren, zijn het geen audittrails. Het zijn historische verslagen met beperkte forensische waarde.
Maak een inventaris van je agentic AI-use cases. Je kunt niet besturen wat je niet kent. Shadow AI verspreidt zich sneller dan de meeste securityteams beseffen—business units die capaciteiten uitrollen die security nooit heeft beoordeeld, goedgekeurd of waarvan ze het bestaan niet weten. Begin met zichtbaarheid in wat er draait.
Beoordeel blootstelling aan AI door derden. Slechts 36% heeft zicht op partner AI-data-afhandeling. De rest vertrouwt op contracten om hen te beschermen tegen risico’s die ze niet zien en niet hebben gemeten. Ontdek wat je leveranciers met jouw data doen in hun AI-systemen, niet wat hun contracten zeggen dat ze doen.
Tabel 5: Belangrijkste AI-beveiligings- en privacyrisico’s
| Risico | % noemt als topzorgen | Huidige controlestatus |
|---|---|---|
| AI-leveranciers van derden en data-afhandeling | 30% | Zwak — slechts 36% heeft zichtbaarheid |
| Training-data poisoning | 29% | Zeer zwak — 22% heeft pre-training validatie |
| PII-lekkage via outputs/embeddings | 27% | Zwak — 37% heeft doellimieten |
| Bedreigingen van binnenuit versterkt door AI | 26% | Matig — 59% heeft human-in-the-loop |
| Persoonlijke data in prompts | 35% | Zeer zwak — meestal beleid, zelden technisch |
| Shadow AI | 23% | Zeer zwak — weinig discovery tools |
Middellange termijn prioriteiten (H2 2026):
Implementeer AI-anomaliedetectie. 60% mist het—de grootste incident response-kloof die we hebben gemeten. Van 40% dekking naar voldoende detectie vereist toolselectie, bouwen van datapijplijnen, modelafstemming, alerttriageprocessen en personeelstraining. Dat is geen snelle inzet. Begin nu als je de capaciteit eind dit jaar wilt hebben.
Bouw training-data governance. 78% kan data die de trainingspijplijn binnenkomt niet valideren. 77% kan herkomst niet traceren. 53% kan trainingsdata na incidenten niet herstellen. Toezichthouders gaan vragen hoe je weet wat er in je modellen zit. “Dat weten we niet” is geen antwoord dat lang houdbaar is.
Stel gezamenlijke IR-draaiboeken op met kritieke leveranciers. 87% mist ze. 89% heeft nooit incident response geoefend met partners. Oefen voordat je samen moet reageren, want midden in een incident is het slechtste moment om communicatieprotocollen en beslissingsrechten vast te leggen.
Consolideer gefragmenteerde data exchange-infrastructuur. 61% draait op gescheiden systemen die geen audittrails van bewijskwaliteit of uniforme AI-data governance ondersteunen. Moderne dreigingen vereisen moderne infrastructuur, en je kunt niet van gefragmenteerd naar uniform patchen.
Eis AI-attestaties van derden bij contractverlengingen. Vragenlijsten zijn niet meer voldoende. Bouw AI-afhandelingsvereisten in je leverancierscontracten voor 2026 nu je nog onderhandelingsmacht hebt, niet pas als een incident het gesprek afdwingt.
De kloof wordt groter voordat hij kleiner wordt
Hier is het patroon dat elke securityleider voor 2026 en daarna zorgen zou moeten baren: De organisaties die AI het meest agressief uitrollen, besturen het ook het beste. Degenen die net aan hun AI-reis beginnen, hebben bijna niets op orde—79-81% mist basis containment-controles—en gaan de inzet versnellen omdat competitieve druk dat vereist.
Dit creëert tweedeling, geen convergentie. Koplopers stapelen hun voordeel. Elke controle die ze implementeren maakt de volgende makkelijker te bouwen en te beheren. Elk incident dat ze vermijden is een les die hun concurrenten pas leren als ze het zelf meemaken. Achterblijvers raken elk kwartaal verder achterop. De kloof tussen voorbereide en onvoorbereide organisaties wordt tot in 2026 groter, niet kleiner.
De volgende golf AI-beveiligingsincidenten zal waarschijnlijk komen van organisaties die snel uitrollen zonder de governance-infrastructuur die ervaren organisaties via trial-and-error hebben opgebouwd. Zij leren dezelfde lessen—maar publiekelijker, duurder en met minder tijd om te herstellen voordat het volgende incident zich aandient.
De 15 voorspellingen in ons volledige rapport laten zien waar de markt heen gaat. De gaten laten zien waar organisaties kwetsbaar zijn. 100% heeft AI op de roadmap. De meerderheid kan het niet besturen. 63% kan geen doellimieten afdwingen. 60% kan ontsporende agents niet beëindigen. 53% kan trainingsdata na incidenten niet herstellen.
De voorspellingen vertellen je waar het heen gaat. De gaten vertellen je waar je kwetsbaar bent. Wat er met jouw organisatie gebeurt, hangt volledig af van wat je met die informatie doet.
Veelgestelde vragen
100% van de onderzochte organisaties heeft agentic AI op de roadmap staan—geen enkele uitzondering. Het onderzoek, gebaseerd op 225 security-, IT- en risicoleiders uit 10 sectoren en 8 regio’s, toont universele AI-adoptieplannen. De uitdaging is niet of organisaties AI gaan inzetten, maar of ze de governance- en containment-controles hebben om het veilig te beheren.
De governance-containment gap verwijst naar het verschil van 15-20 punten tussen het vermogen van organisaties om AI-systemen te monitoren versus ze daadwerkelijk te kunnen stoppen. Terwijl 59% human-in-the-loop toezicht heeft en 58% continue monitoring, heeft slechts 37% doellimieten en 40% kill-switch functionaliteit. De meeste organisaties kunnen AI-agents observeren die iets onverwachts doen, maar kunnen niet voorkomen dat ze buiten hun bevoegdheden treden of ze snel uitschakelen.
Slechts 40% van de organisaties heeft kill-switch functionaliteit om ontsporende AI-agents snel te beëindigen. De overige 60% mist deze basiscontainment, wat betekent dat ze een AI-systeem dat buiten de verwachte parameters opereert of toegang krijgt tot ongewenste data niet snel kunnen stoppen. Zelfs met agressieve uitvoering zal naar verwachting 26% tot 36% deze capaciteit eind 2026 nog steeds missen.
De overheid is de meest blootgestelde sector, met 90% zonder doellimieten, 76% zonder kill-switch functionaliteit en 33% zonder enige AI-specifieke controles. De zorg volgt met ernstige incident response-gaten—77% heeft recovery time objectives niet getest en 64% mist AI-anomaliedetectie. Producenten kampen met aanzienlijke zichtbaarheidsproblemen door derden, waarbij 67% blinde vlekken in hun toeleveringsketens noemt.
Organisaties met audittrails van bewijskwaliteit tonen een voorsprong van 20-32 punten op elke gemeten AI-metric, waaronder herstel van trainingsdata, human-in-the-loop controles en doellimieten. Audittrails vormen de basisinfrastructuur voor verantwoording, incident response en datacompliance. De 33% zonder audittrails en de 61% met gefragmenteerde logs kunnen geen effectieve AI-data governance bouwen omdat ze niet kunnen aantonen wat er is gebeurd als er iets misgaat.
Organisaties die niet direct onder de EU AI-wet vallen, lopen 22-33 punten achter op AI-controles zoals impactanalyses, doellimieten en red teaming. De regelgeving verspreidt zich wereldwijd via vereisten voor risicobeheer toeleveringsketen (Europese klanten eisen naleving), multinationale operaties en competitieve benchmarking. 82% van de Amerikaanse organisaties zegt nog geen druk te voelen, maar de EU AI-wet bepaalt feitelijk wereldwijd wat “goede AI-data governance” is, en creëert een tweedeling tussen organisaties die wel en niet compliant zijn.