Ondernemingen gaan blindelings de AI-beveiligingscrisis tegemoet (en de cijfers bewijzen het)

Ondernemingen gaan blindelings de AI-beveiligingscrisis tegemoet (en de cijfers bewijzen het)

Een analyse van bijna een biljoen transacties onthult een ontnuchterende waarheid: organisaties adopteren AI sneller dan ze het kunnen beveiligen, en aanvallers maken al misbruik van het gat.

De Grote AI-beveiligingskloof

Er gebeurt iets vreemds in de wereld van enterprise-technologie. Bedrijven haasten zich om AI-tools in te zetten, machine learning te integreren in workflows en alles te automatiseren, van klantenservice tot softwareontwikkeling. Maar toen beveiligingsonderzoekers daadwerkelijk testten hoe goed deze systemen bestand zijn tegen aanvallen, ontdekten ze iets alarmerends: elk enkel enterprise AI-systeem dat ze onderzochten, bevatte kritieke kwetsbaarheden.

Dat is geen typefout. Honderd procent faalpercentages.

Zscaler’s ThreatLabz 2026 AI Security Report analyseerde bijna een biljoen AI- en machine learning-transacties bij ongeveer 9.000 organisaties in 2025. Wat zij ontdekten, schetst het beeld van een industrie die op volle snelheid op een afgrond afstevent.

De mediane tijd tot de eerste kritieke fout tijdens red team-tests was slechts 16 minuten, waarbij 90% van de systemen binnen 90 minuten werd gecompromitteerd. In het meest extreme geval stortte de verdediging in één seconde in.

Denk eens na over die tijdlijn. Beveiligingsteams meten hun responstijden doorgaans in uren of dagen. Aanvallers kunnen nu de tijd tot inbraak in minuten meten.

Vijf Belangrijke Inzichten

1. Elk Getest Enterprise AI-systeem Had Kritieke Kwetsbaarheden

Zscaler’s red team-tests vonden kritieke fouten in 100% van de geanalyseerde enterprise AI-systemen, met een mediane tijd tot de eerste kritieke fout van slechts 16 minuten. In het meest extreme geval werd de beveiliging in één seconde omzeild—wat aantoont dat AI-systemen vrijwel direct bezwijken onder echte vijandige omstandigheden.

2. 18.000 Terabyte aan Bedrijfsdata Stroomde Naar AI-platforms

Enterprise data transfers naar AI- en ML-applicaties stegen met 93% op jaarbasis tot 18.033 terabyte, waardoor tools als Grammarly en ChatGPT uitgroeiden tot enorme opslagplaatsen van bedrijfsinformatie. Deze blootstelling leidde tot 410 miljoen Data Loss Prevention-beleidschendingen die alleen al aan ChatGPT zijn gekoppeld, waaronder pogingen om burgerservicenummers, broncode en medische dossiers te delen.

3. Shadow AI Omzeilt Enterprise-beveiligingscontroles

Ongeveer 77% van de medewerkers plakt data in generatieve AI-tools, en 82% van deze activiteiten gebeurt via persoonlijke accounts die volledig buiten het toezicht van het bedrijf vallen. Traditionele systemen voor preventie van gegevensverlies zijn niet ontworpen voor copy-paste-workflows, waardoor beveiligingsteams blind zijn voor het merendeel van de overdrachten van gevoelige data.

4. AI-applicaties Verviervoudigd Terwijl Zichtbaarheid Instortte

Het aantal applicaties dat AI/ML-transacties aanstuurt, explodeerde tot meer dan 3.400—een verviervoudiging op jaarbasis—waardoor veel organisaties niet eens een basisinventarisatie hebben van actieve AI-modellen of ingebouwde functies. De financiële sector en verzekeringen lopen voorop in AI-adoptie met 23% van al het verkeer, terwijl technologie- en onderwijssectoren een transactie-groei van meer dan 200% zagen.

5. Agentic AI Maakt Cyberaanvallen op Machinesnelheid Mogelijk

Autonome AI-agenten duiken op als zowel de volgende bedreiging van binnenuit als een krachtvermenigvuldiger voor aanvallers, in staat om verkenning, uitbuiting en laterale beweging uit te voeren op snelheden die traditionele beveiligingstools niet kunnen evenaren. Verdedigers moeten er nu vanuit gaan dat aanvallen kunnen opschalen en zich aanpassen op machinesnelheid—niet op mensensnelheid—terwijl beveiligingsteams hun responstijd in uren meten tegen bedreigingen die systemen in minuten compromitteren.

Je vertrouwt erop dat je organisatie veilig is. Maar kun je het verifiëren?

Lees nu

18.000 Terabyte aan Bedrijfsinformatie, Naar Buiten Gestroomd

De schaal van data die AI-systemen binnenkomt, is verbluffend. Enterprise data transfers naar AI- en machine learning-applicaties stegen in 2025 tot 18.033 terabyte, een stijging van 93% op jaarbasis. Ter vergelijking: dat is ruwweg gelijk aan 3,6 miljard digitale foto’s aan bedrijfsinformatie die aan externe AI-platforms wordt gevoed.

Waar gaat al deze data naartoe? Tools als Grammarly namen 3.615 terabyte aan bedrijfscontent op, terwijl ChatGPT 2.021 terabyte ontving. Deze platforms zijn in feite enorme opslagplaatsen van bedrijfsinformatie geworden, met alles van strategische documenten tot broncode en klantgegevens.

Het probleem is niet dat medewerkers AI-tools gebruiken. Het probleem is hoe ze die gebruiken—en wat ze delen zonder zich de gevolgen te realiseren.

De schaal van dit risico blijkt uit 410 miljoen Data Loss Prevention-beleidschendingen die alleen al aan ChatGPT zijn gekoppeld, waaronder pogingen om burgerservicenummers, broncode en medische dossiers te delen.

Vierhonderdtien miljoen overtredingen. Van één applicatie.

Het Shadow AI-probleem Waar Niemand Over Wil Praten

Ongeveer 77% van de medewerkers plakt data in generatieve AI-tools, en 82% van deze activiteiten gebeurt via persoonlijke accounts die enterprise-toezicht volledig omzeilen. Dit betekent dat het merendeel van de overdracht van gevoelige data volledig buiten de beveiligingscontroles van het bedrijf plaatsvindt.

De bevindingen uit het rapport sluiten aan bij breder industrieel onderzoek waaruit blijkt dat 68% van de medewerkers gratis AI-tools zoals ChatGPT via persoonlijke accounts gebruikt, waarbij 57% gevoelige data invoert.

Traditionele systemen voor preventie van gegevensverlies zijn ontworpen om bestanden te onderscheppen die worden geüpload of gedownload. Ze zijn niet gebouwd voor het copy-paste-tijdperk, waarin medewerkers simpelweg tekst uit een vertrouwelijk document selecteren en in een browsergebaseerde chatbot plakken die draait onder hun persoonlijke Gmail-account.

Het meest directe generatieve AI-specifieke risico is de enorme toename van data-exposure, waarbij het aantal beleidschendingen rond genAI-applicatiegebruik vorig jaar is verdubbeld.

Dit is geen theoretisch probleem. Het is meetbaar, versnelt en vindt plaats in elke sector.

Ingebouwde AI: De Bedreiging Die Je Niet Ziet

Naast de voor de hand liggende AI-applicaties zoals ChatGPT en code-assistenten, schuilt een verraderlijker probleem. AI-capaciteiten worden nu rechtstreeks ingebouwd in dagelijkse enterprise softwareplatforms—vaak standaard geactiveerd en werkend zonder expliciet gebruikersbewustzijn.

Deze ingebouwde AI-functies creëren wat beveiligingsonderzoekers een “stille risicovermenigvuldiger” noemen. Ze erven te ruime machtigingen van hun hostapplicaties, kunnen bedrijfscontent uit gekoppelde systemen opnemen en stellen nieuwe vertrouwensgrenzen vast die moeilijk te auditen of zelfs te detecteren zijn.

Van alle geanalyseerde platforms was Atlassian een belangrijke bron van ingebouwde AI-activiteit, wat het wijdverbreide gebruik weerspiegelt van AI-gedreven functies binnen de kernplatforms zoals Jira en Confluence.

Wanneer je projectmanagementtool stilletjes tickets samenvat met AI, of je documentatieplatform automatisch inhoudssuggesties genereert, kan gevoelige informatie AI-systemen binnenstromen via kanalen die je beveiligingsteam nooit had overwogen.

Het resultaat? Veel organisaties missen nog steeds een basisinventarisatie van actieve AI-modellen en ingebouwde functies, waardoor ze niet weten waar gevoelige data precies wordt blootgesteld.

De Explosie van 3.400 Applicaties

Het aantal applicaties dat AI- en ML-transacties aanstuurt, is op jaarbasis verviervoudigd tot meer dan 3.400, wat de complexiteit vergroot en de centrale zichtbaarheid vermindert.

Deze snelle toename heeft ertoe geleid dat veel organisaties geen duidelijk overzicht hebben van welke AI-modellen met hun data interacteren of welke toeleveringsketens daarachter schuilgaan. Beveiligingsteams spelen in feite een kat-en-muisspel tegen een exponentieel groeiend probleem.

Enterprise AI-activiteit steeg met 91% op jaarbasis over meer dan 3.400 applicaties. De financiële sector en verzekeringen blijven de meest AI-gedreven sectoren qua hoeveelheid, goed voor 23% van al het AI/ML-verkeer, terwijl technologie- en onderwijssectoren een explosieve jaar-op-jaar transactie-groei van respectievelijk 202% en 184% noteerden.

Technische afdelingen waren goed voor 48,9% van al het AI-gebruik, gevolgd door IT met 31,8% en marketing met 6,9%. Juist de afdelingen met toegang tot de meest gevoelige intellectuele eigendom en klantdata zijn de grootste gebruikers.

Wanneer Machines Aanvallen op Machinesnelheid

Hier verschuift het gesprek van zorgwekkend naar ronduit alarmerend.

Het cybervooruitzicht van Moody’s voor 2026 waarschuwde voor toenemende AI-gedreven cyberaanvallen, waaronder adaptieve malware en autonome bedreigingen, nu bedrijven AI steeds vaker inzetten zonder voldoende beveiliging.

De opkomst van “agentic AI”—autonome systemen die complexe taken kunnen uitvoeren zonder menselijk toezicht—verandert het dreigingslandschap fundamenteel. Volgens Palo Alto Networks vormen AI-agenten in 2026 de nieuwe bedreiging van binnenuit voor bedrijven, omdat agentic AI kwetsbaar wordt voor uitbuiting en een aantrekkelijk doelwit voor aanvallers.

We zijn voorbij de passieve chatbots en leven nu in het tijdperk van autonome agenten. Deze verschuiving verandert het dreigingslandschap voor organisaties fundamenteel, waarbij AI verandert van een contentgenerator in een actieve deelnemer aan de enterprise-infrastructuur die code kan uitvoeren en data kan wijzigen.

Traditionele beveiligingstools zijn ontworpen om afwijkingen in menselijk gedrag te detecteren. Een AI-agent die 10.000 keer achter elkaar perfect code draait, lijkt voor deze systemen normaal. Maar die agent kan de instructies van een aanvaller uitvoeren.

Op het hoogtepunt van een gedocumenteerde AI-georkestreerde aanval deed de AI duizenden verzoeken, vaak meerdere per seconde—een aanvalssnelheid die voor menselijke hackers simpelweg onmogelijk was geweest.

Bedreigingsactoren gebruiken modellen om overtuigende lokmiddelen in elke taal te genereren, payloads voor elk doelwit te muteren en gestolen datasets te doorzoeken op een schaal die handmatige methoden nooit kunnen evenaren.

De implicaties voor verdedigers zijn duidelijk: je kunt er niet langer van uitgaan dat aanvallen zich op mensensnelheid voltrekken. Beveiligingsteams die hun responstijd in uren meten, verdedigen zich tegen bedreigingen die systemen in minuten kunnen compromitteren.

De 39%-Oplossing (Die Eigenlijk Geen Oplossing Is)

Organisaties beseffen dat er iets moet gebeuren. Uit het Zscaler-onderzoek blijkt dat bedrijven ongeveer 39% van de AI/ML-transacties blokkeerden vanwege zorgen over data-exposure, privacy en naleving.

Aan de ene kant laat dit zien dat beveiligingsteams actie ondernemen. Aan de andere kant toont het de omvang van het probleem: als vier op de tien AI-transacties als potentieel risico worden gemarkeerd, is er iets fundamenteels mis in de manier waarop bedrijven AI-adoptie benaderen.

De tools die medewerkers het vaakst gebruiken—Grammarly, ChatGPT, Copilot, code-assistenten—zijn ook het meest geblokkeerd en het diepst betrokken bij interacties met gevoelige data. Deze applicaties zitten direct in de dagelijkse workflows, waardoor ze tegelijk onmisbaar en gevaarlijk zijn.

De Regulerende Afrekening

OpenAI kreeg een boete van €15 miljoen van de Italiaanse gegevensbeschermingsautoriteit voor het trainen van modellen op persoonlijke data zonder duidelijke wettelijke basis en het niet implementeren van voldoende leeftijdsverificatie. De eerste grote handhavingsgolf onder de EU AI-wet intensiveert in 2026 nu het uitgebreide nalevingskader voor hoog-risicosystemen volledig afdwingbaar wordt.

Dit is niet langer alleen een technisch probleem. Het is nu ook een regulerend probleem. Organisaties die AI-systemen inzetten zonder goede governance-raamwerken riskeren boetes tot €35 miljoen of 7% van de wereldwijde jaaromzet onder de EU AI-wet, bovenop bestaande GDPR-boetes.

De DLP-overtredingen die in het Zscaler-rapport zijn gedocumenteerd—pogingen om gereguleerde zorgdata, financiële dossiers en persoonlijk identificeerbare informatie via AI-platforms te delen—zijn precies het soort activiteiten dat compliance-onderzoeken uitlokt.

Wat Werkt Echt

De reactie van de beveiligingsindustrie op deze uitdaging concentreert zich rond enkele kernprincipes.

Ten eerste: zichtbaarheid. Je kunt niet beveiligen wat je niet ziet. Organisaties hebben een volledig overzicht nodig van elke AI-applicatie, ingebouwde functie en elk model dat met hun data werkt. Dit omvat ook de shadow AI-tools die medewerkers via persoonlijke accounts gebruiken.

Ten tweede: AI-verkeer behandelen als een kritisch beveiligingsdomein. De meeste bedrijven missen een volledig beeld van de AI-applicaties en -diensten die in gebruik zijn, waaronder generatieve AI-tools, AI-ontwikkelomgevingen, ingebouwde AI in SaaS, modellen, agenten en onderliggende infrastructuur. Traditionele perimeterbeveiliging werkt niet als de dreiging bestaat uit data die via legitieme kanalen naar buiten stroomt.

Ten derde: continu testen. De 16 minuten tot compromittering die in red team-oefeningen zijn gedocumenteerd, laten zien dat AI-systemen snel falen onder vijandige omstandigheden. Dit is geen eenmalig pentestprobleem—het vereist voortdurende validatie.

Ten vierde: permissiehygiene. AI-tools en agenten moeten werken volgens het principe van minimale rechten, net als menselijke gebruikers. Een AI-assistent die helpt met agendabeheer heeft geen toegang nodig tot je klantendatabase.

Ten vijfde: mens-in-de-lus-controles voor beslissingen met grote impact. Een agent mag nooit geld overmaken, data verwijderen of toegangsrechten wijzigen zonder expliciete goedkeuring van een mens.

De Oncomfortabele Waarheid

AI is getransformeerd van productiviteitstool tot de belangrijkste vector voor autonome conflicten op machinesnelheid.

Dat is geen marketingtaal. Dat is wat bijna een biljoen transacties aan data onthullen over waar we nu echt staan in het AI-beveiligingsverhaal.

Organisaties die AI-beveiliging als bijzaak behandelen—iets om pas aan te pakken als de productiviteitswinst is binnengehaald—bereiden zich voor op incidenten die zich sneller voltrekken dan hun beveiligingsteams kunnen reageren.

De bedrijven die erin slagen AI op schaal te beheren zonder het volledig stil te leggen, krijgen een competitief voordeel. Wie dat niet doet, zal aan toezichthouders, klanten en aandeelhouders moeten uitleggen hoe 18.000 terabyte aan bedrijfsdata op plekken terechtkwam waar het nooit had mogen zijn.

Zoals Jay Chaudhry, CEO en oprichter van Zscaler, opmerkte: “AI verandert hoe bedrijven werken, maar traditionele beveiligingsaanpakken zijn niet ontworpen om AI te beveiligen. Organisatieleiders zoeken een allesomvattende oplossing—niet nóg meer point products.”

Het venster om dit probleem voor te blijven, sluit zich snel. Tegenstanders kunnen nu het grootste deel van een inbraak automatiseren met vrijwel geen menselijke expertise. Bedrijven die geen geautomatiseerde, AI-gedreven verdediging inzetten, zullen worden ingehaald door bedreigingen die sneller evolueren dan elk traditioneel beveiligingsmodel kan bijhouden.

De keuze is niet tussen AI adopteren en veilig blijven. Het is AI adopteren met goed bestuur, of blindelings een crisis in vliegen die al begonnen is.

Wil je weten hoe Kiteworks kan helpen? Plan vandaag nog een persoonlijke demo.

Veelgestelde Vragen

Het ThreatLabz 2026 AI Security Report is een jaarlijkse cybersecurity-analyse, gepubliceerd door Zscaler op 27 januari 2026, waarin het gebruik van enterprise AI en beveiligingskwetsbaarheden worden onderzocht. Het rapport analyseerde 989,3 miljard AI- en machine learning-transacties bij ongeveer 9.000 organisaties die het Zscaler Zero Trust Exchange-platform gebruikten tussen januari en december 2025.

Volgens Zscaler’s red team-tests was de mediane tijd tot de eerste kritieke fout in enterprise AI-systemen slechts 16 minuten, waarbij 90% van de systemen binnen 90 minuten werd gecompromitteerd. In het meest extreme geval werd de beveiliging in één seconde omzeild, wat aantoont dat AI-systemen snel falen onder vijandige omstandigheden.

Enterprise data transfers naar AI- en ML-applicaties bereikten in 2025 18.033 terabyte, een stijging van 93% op jaarbasis. Grammarly ontving 3.615 terabyte aan bedrijfscontent, terwijl ChatGPT 2.021 terabyte opnam, waarmee deze platforms tot de grootste opslagplaatsen van bedrijfsinformatie behoren.

Shadow AI verwijst naar het ongeautoriseerd gebruik van generatieve AI-tools via persoonlijke accounts die enterprise-beveiligingscontroles omzeilen. Onderzoek wijst uit dat 77% van de medewerkers data plakt in generatieve AI-tools, waarbij 82% van deze activiteiten via onbeheerde persoonlijke accounts plaatsvindt. Dit creëert een enorme blinde vlek voor systemen voor preventie van gegevensverlies en stelt gevoelige bedrijfsinformatie bloot zonder toezicht.

De financiële sector en verzekeringen zijn de meest AI-gedreven sectoren qua hoeveelheid transacties, goed voor 23% van al het AI/ML-verkeer in het rapport. Technologie- en onderwijssectoren noteerden de snelste groeipercentages met respectievelijk 202% en 184% jaar-op-jaar. Technische afdelingen zijn goed voor bijna de helft van al het enterprise AI-gebruik (48,9%), gevolgd door IT met 31,8%.

Agentic AI verwijst naar autonome AI-systemen die complexe taken kunnen uitvoeren zonder menselijk toezicht, waaronder verkenning, uitbuiting en laterale beweging binnen netwerken. Beveiligingsexperts waarschuwen dat agentic AI een primair aanvalskanaal wordt, omdat het cyberaanvallen mogelijk maakt op machinesnelheid en zich sneller aanpast dan traditionele beveiligingstools die zijn ontworpen om afwijkingen in menselijk gedrag te detecteren.

Aanvullende Bronnen

  • Blog Post Zero Trust Architectuur: Vertrouw nooit, verifieer altijd
  • Video Microsoft GCC High: Nadelen die defensie-aannemers richting slimmere voordelen drijven
  • Blog Post Hoe je geclassificeerde data beveiligt zodra DSPM het signaleert
  • Blog Post Vertrouwen opbouwen in Generatieve AI met een Zero Trust-aanpak
  • Video De definitieve gids voor het veilig opslaan van gevoelige data voor IT-leiders

Aan de slag.

Het is eenvoudig om te beginnen met het waarborgen van naleving van regelgeving en het effectief beheren van risico’s met Kiteworks. Sluit je aan bij de duizenden organisaties die vol vertrouwen privégegevens uitwisselen tussen mensen, machines en systemen. Begin vandaag nog.

Table of Content
Share
Tweet
Share
Explore Kiteworks