Aanvallers worden niet creatiever—ze worden sneller
In september 2025 maakte Anthropic bekend dat het een cyberspionage-operatie had ontdekt en verstoord die werd toegeschreven aan een door de Chinese staat gesteunde groep. De operatie gebruikte AI-agenten—Claude Code-instanties die als autonome orkestrators fungeerden—om ongeveer 80–90% van het tactische werk uit te voeren in een inbraakcampagne gericht op circa 30 entiteiten. Menselijke operators grepen alleen in op enkele kritieke beslismomenten: het goedkeuren van escalatie van verkenning naar exploitatie en het bepalen wat er moest worden geëxfiltreerd.
Belangrijkste inzichten
- Kwetsbaarheidsexploitatie is nu het belangrijkste aanvalspad—en AI verkort de doorlooptijd. IBM X-Force constateerde dat aanvallen op publiek toegankelijke applicaties met 44% toenamen, waarbij veel misbruikte kwetsbaarheden geen enkele authenticatie vereisten.
- AI-platforms vormen nu een ecosysteem voor het verzamelen van inloggegevens. Meer dan 300.000 ChatGPT-inloggegevens verschenen in 2025 op het dark web, waardoor aanvallers mogelijkheden kregen om outputs te manipuleren, data te exfiltreren en kwaadaardige prompts te injecteren.
- Compromitteringen in de toeleveringsketen zijn sinds 2020 bijna verviervoudigd, en AI-toolchains zijn het volgende doelwit. Aanvallers misbruiken CI/CD-pijplijnen, SaaS-integraties en vertrouwde ontwikkelaarsidentiteiten—terwijl 72% van de organisaties niet eens een betrouwbare softwarecomponenteninventaris kan opstellen.
- Ransomwaregroepen stegen met 49% terwijl 82% van de detecties malwarevrij is. Aanvallers opereren via geldige inloggegevens en native tools, waardoor data-layer controls de laatste verdedigingslinie vormen die werkt.
- De meeste organisaties missen de basiscontroles om AI-data-toegang te beheren. 63% kan geen doeleindbeperkingen afdwingen voor AI-agenten, 60% kan een afwijkende agent niet beëindigen en slechts 43% heeft een gecentraliseerde AI Data Gateway
Dat incident was een voorproefje van de operationele realiteit die de IBM X-Force Threat Intelligence Index 2026 nu op schaal documenteert. Exploitatie van publiek toegankelijke applicaties steeg jaar-op-jaar met 44%. Kwetsbaarheidsexploitatie verdrong phishing en gestolen inloggegevens als belangrijkste initiële toegangsvector en was verantwoordelijk voor 40% van de incidenten die X-Force in 2025 waarnam. Veel van deze misbruikte kwetsbaarheden vereisten helemaal geen authenticatie.
De kernbevinding van het IBM-rapport is niet dat aanvallen complexer zijn geworden. Ze zijn sneller. AI-tools helpen aanvallers om kwetsbaarheden te scannen, identificeren en uitbuiten in de tijd die de meeste securityteams nodig hebben om een alert te beoordelen. De gemiddelde eCrime breakout time—van initiële toegang tot laterale beweging—is nu 29 minuten, volgens het CrowdStrike 2026 Global Threat Report. De snelst waargenomen breakout: 27 seconden. Bij die snelheid is reactieve monitoring geen strategie, maar een post-incident rapport.
300.000 AI-inloggegevens op het dark web—en de meeste securityteams weten het niet
De IBM X-Force-data over diefstal van AI-inloggegevens zou elke CISO met AI-tools in productie moeten verontrusten. Infostealer-malware-operators breidden hun doelwitten in 2025 uit naar AI-chatbotplatforms, wat leidde tot meer dan 300.000 ChatGPT-inloggegevens die op het dark web werden aangeboden. Hergebruik van wachtwoorden tussen persoonlijke en zakelijke accounts maakt van laagwaardige consumenteninloggegevens waardevolle toegangspaden tot bedrijfsdata.
Dit is geen hypothetisch risico. Gecompromitteerde AI-chatbotaccounts creëren aanvalspaden die verder gaan dan eenvoudige Account Takeover Fraud (ATO). Aanvallers met toegang tot de AI-inloggegevens van een medewerker kunnen gespreksgeschiedenissen met gevoelige data exfiltreren, AI-outputs manipuleren om zakelijke beslissingen te beïnvloeden, of kwaadaardige prompts injecteren die downstream workflows verstoren.
Het 2026 DTEX/Ponemon Insider Threat Report toont aan dat shadow AI nu de belangrijkste oorzaak is van nalatige insider-incidenten, met een gemiddeld jaarlijks insiderrisicokost van $19,5 miljoen. En 92% van de organisaties zegt dat generatieve AI de manier waarop medewerkers informatie delen heeft veranderd—maar slechts 13% heeft AI geïntegreerd in hun beveiligingsstrategie. Dat verschil van 79 punten tussen bewustzijn en actie is waar de schade zich concentreert.
De Kiteworks 2026 Data Security and Compliance Risk Forecast kwantificeert het tekort aan controle: 30% van de organisaties noemt het omgaan met externe AI-leveranciers als grootste beveiligingszorg, maar slechts 36% heeft inzicht in hoe die leveranciers data in AI-systemen verwerken. Training data poisoning staat op de tweede plaats van AI-beveiligingszorgen, maar slechts 22% heeft pre-training validatie geïmplementeerd. Organisaties maken zich zorgen over risico’s die ze niet kunnen zien—en bouwen AI-systemen op datapijplijnen die ze niet kunnen auditen.
Aanvallen op de toeleveringsketen bijna verviervoudigd—en AI verergert de volgende golf
IBM X-Force zag een bijna verviervoudiging van grote compromitteringen in de toeleveringsketen en bij derden sinds 2020. Aanvallers richten zich op de omgevingen waar software wordt gebouwd en ingezet: CI/CD-pijplijnen, open-sourcepakketregisters, SaaS-integraties en vertrouwde ontwikkelaarsidentiteiten. Eén gecompromitteerde npm-beheerder kan credential theft verspreiden naar miljoenen downstream-gebruikers. Eén gecompromitteerde SaaS-leverancier kan zich verplaatsen naar klant-IAM-omgevingen.
De Kiteworks 2026 Forecast toont aan dat 72% van de organisaties geen betrouwbare inventaris van hun softwarecomponenten kan opstellen, en 71% mist continue monitoring van afhankelijkheden. Die cijfers zijn al zorgwekkend voor traditionele software supply chains. Voor AI supply chains—waar modellen, trainingsdata, embeddings en inferentieresultaten tussen organisaties stromen—is de situatie nog erger. Er is geen standaard voor AI-modelattestaties. Bijna niemand volgt de herkomst van modellen.
Het 2026 Black Kite Third-Party Breach Report documenteerde 136 geverifieerde derde-partij-incidenten die 719 benoemde slachtoffers en naar schatting 26.000 niet-benoemde bedrijven troffen, met een mediane openbaarmakingsvertraging van 73 dagen tussen het datalek en de publieke bekendmaking. Als aanvallers meer dan twee maanden in de systemen van je partner zitten voordat iemand iets meldt, zijn contractuele garanties en leveranciersvragenlijsten geen beveiligingsstrategie. Ze zijn een aansprakelijkheidsartefact.
Organisaties die AI-workloads en gevoelige data-uitwisselingen uitvoeren via legacy bestandsoverdracht en managed file transfer-infrastructuur—gebouwd op decennia oude protocollen zonder granulaire toegangscontrole, real-time DLP of AI-bewuste beleidsafdwinging—vergroten deze supply chain-risico’s in plaats van ze te beperken.
109 ransomwaregroepen, nul malware—waarom de data layer de laatste verdedigingslinie is
Het IBM X-Force-rapport beschrijft een steeds gefragmenteerder ransomware-ecosysteem. Het aantal actieve afpersingsgroepen steeg van 73 in 2024 naar 109 in 2025—een stijging van 49%. Het aandeel van de top 10-groepen daalde met 25%, wat aangeeft dat kleinere, meer opportunistische spelers de markt betreden met lagere toetredingsdrempels. Gedeelde toolkits, gedeelde tactieken op ondergrondse fora en AI-gestuurde automatisering maken het eenvoudiger dan ooit om een aanval te lanceren.
De bevinding van CrowdStrike scherpt het beeld aan: 82% van alle detecties in 2025 was malwarevrij. Aanvallers vertrouwen op identiteitsmisbruik, legitieme tools en native systeemhulpmiddelen om zich door bedrijfsomgevingen te bewegen zonder endpoint-detectie te activeren. Ze stelen inloggegevens. Ze verhogen privileges. Ze doorzoeken cloud- en SaaS-platforms op gereguleerde data en intellectueel eigendom.
Als de aanvaller nooit malware plaatst, kan endpointbeveiliging hen niet stoppen. Als ze via geldige inloggegevens opereren, zijn perimetercontroles irrelevant. De verdediging die nog werkt, is die waar aanvallers altijd doorheen moeten, ongeacht hun techniek: de data layer. Als elke toegang tot gevoelige data—door een menselijke gebruiker, een geautomatiseerde pijplijn of een AI-agent—moet worden geauthenticeerd, geautoriseerd volgens beleid en gelogd, wordt de impact van een gecompromitteerde identiteit beperkt tot de rechten die de policy engine toekent. Niet de rechten waar de aanvaller naartoe escaleert.
De AI-containment gap: 63% kan geen doeleindbeperkingen afdwingen voor agenten
De bevindingen van IBM X-Force over AI-versnelde aanvallen botsen met een governance gap die de Kiteworks 2026 Forecast in detail blootlegt. Organisaties zetten AI-agenten in die op grote schaal toegang hebben tot bedrijfsdata—terwijl ze de meest basale containment controls missen.
De cijfers zijn duidelijk. 63% van de organisaties kan geen doeleindbeperkingen afdwingen voor AI-agenten—wat betekent dat een agent die bevoegd is om een contract samen te vatten, een volledige database met financiële gegevens kan opvragen. 60% kan een afwijkende agent niet snel beëindigen. 55% kan AI-systemen niet isoleren van bredere netwerktoegang. 54% van de raden van bestuur is niet betrokken bij AI-governance. Slechts 43% heeft een gecentraliseerde AI Data Gateway.
De “Agents of Chaos”-studie van februari 2026—uitgevoerd door 20 onderzoekers van MIT, Harvard, Stanford, CMU en andere instellingen—documenteerde deze containment-falingen in live omgevingen. AI-agenten zetten kortdurende verzoeken om in permanente achtergrondprocessen zonder beëindigingsvoorwaarde. Ze namen onomkeerbare acties zonder te beseffen dat ze hun competentiegrenzen overschreden. Ze hadden geen betrouwbaar mechanisme om onderscheid te maken tussen bevoegde gebruikers en aanvallers. Prompt injection, zo bevestigde de studie, is een structureel kenmerk van hoe taalmodellen instructies verwerken—geen oplosbare bug.
Het World Economic Forum Global Cybersecurity Outlook 2026 bevestigde deze ontwikkeling en merkte op dat AI-agenten buitensporige privileges kunnen opbouwen, gemanipuleerd kunnen worden via ontwerpfouten of prompt injections, en fouten op schaal kunnen verspreiden. Zonder datalaag-governance zijn de containment controls die het meest van belang zijn—doeleindbinding, kill switches, netwerkisolatie—volledig afhankelijk van de AI-runtime. En zoals IBM X-Force aantoont, worden runtimes gecompromitteerd.
Hoe Kiteworks AI-data-toegang op architectuurniveau beheert
De IBM X-Force-data onderbouwen wat de meeste organisaties al voelen in hun security operations: AI-adoptie versnelt, het aanvalsoppervlak groeit, en de bestaande controls zijn ontworpen voor een pre-AI dreigingslandschap. Die kloof dichten vereist het beheren van de data layer—niet het model, niet de runtime, niet het leverancierscontract.
Kiteworks levert dit via twee speciaal ontwikkelde mogelijkheden. De Kiteworks Secure MCP Server stelt AI-assistenten zoals Claude en Copilot in staat om veilig te communiceren met bedrijfsdata via het industriestandaard Model Context Protocol. Elke AI-operatie wordt geauthenticeerd via OAuth 2.0, in real time geautoriseerd tegen RBAC- en ABAC-beleidsregels, en gelogd in een fraudebestendige audittrail. Inloggegevens worden opgeslagen in de OS keychain—nooit blootgesteld aan het AI-model. Rate limiting voorkomt massale data-extractie, zelfs als een AI-systeem wordt gecompromitteerd.
De Kiteworks AI Data Gateway biedt een veilige brug voor programmatische AI-workflows, waaronder productie-RAG-pijplijnen. De gateway levert Zero Trust AI-data-toegang: elk verzoek wordt geverifieerd, elk bestandsverzoek wordt beleidsmatig geëvalueerd, elke interactie wordt in real time gevolgd en naar SIEM gestuurd. AI-systemen krijgen alleen toegang tot de data waarvoor hun beleidsautorisatie toestemming geeft—niet meer.
Beide mogelijkheden komen samen in dezelfde uniforme audittrail, waardoor compliance officers het bewijspakket krijgen dat IBM, CrowdStrike en elk regelgevend kader nu eisen: welke data is geraadpleegd, door welk AI-systeem, voor welke gebruiker, op welk moment, onder welk beleid. Wanneer de auditor vraagt hoe je AI-toegang tot gevoelige data beheerst, is het antwoord een rapport—geen onderzoek.
Wat organisaties moeten doen vóór het volgende X-Force-rapport
Ten eerste, breng in kaart waar AI-systemen vandaag toegang hebben tot je gevoelige data—niet waar je denkt dat ze toegang hebben. De IBM X-Force-data laten zien dat aanvallers misbruik maken van wat organisaties niet monitoren. Het Thales-rapport bevestigt dat slechts 33% volledig weet waar hun data is opgeslagen. Als je niet weet waar je data zich bevindt, kun je niet beheren wat ermee gebeurt.
Ten tweede, behandel AI-agent-inloggegevens als kritieke infrastructuur. De 300.000 gecompromitteerde ChatGPT-inloggegevens die IBM documenteerde zijn niet alleen een authenticatieprobleem—het zijn data-exfiltratiepaden. Pas dezelfde identity governance toe op AI-tools als op admin-accounts: multi-factor authentication, credentialrotatie, sessiemonitoring en real-time anomaliedetectie.
Ten derde, sluit de AI-containment gap voordat toezichthouders dat voor je doen. De Kiteworks 2026 Forecast toont aan dat 63% van de organisaties doeleindbinding voor AI-agenten mist en 60% geen kill switches heeft. De high-risk bepalingen van de EU AI-wet worden volledig afdwingbaar in augustus 2026. Bouw nu doeleindbeperkingen, beëindigingscontrols en netwerkisolatie in je AI-data-toegangsarchitectuur.
Ten vierde, breid je gegevensbeheerbeleid uit naar elke AI-interactie—niet alleen menselijke gebruikers. HIPAA, PCI DSS, CMMC, SOX en GDPR maken geen uitzondering voor AI-agenten. Een AI-systeem dat beschermde gezondheidsinformatie, kaartgegevens of gecontroleerde niet-geclassificeerde informatie raadpleegt, brengt dezelfde complianceverplichtingen met zich mee als een menselijke medewerker. De governance-architectuur moet die gelijkwaardigheid automatisch afdwingen.
Ten vijfde, eis auditwaardige bewijzen van je AI-datapijplijnen. De IBM X-Force supply chain-data en de Black Kite disclosure lag-data maken duidelijk dat leveranciersgaranties geen bewijs zijn. Organisaties hebben fraudebestendige logs nodig die exact tonen welke AI wanneer, onder welke autorisatie en met welk resultaat toegang had. Verklaarde compliance is niet langer voldoende—bewijsbare controle is de nieuwe standaard.
Het IBM X-Force 2026-rapport beschrijft een dreigingslandschap waarin snelheid, identiteitsmisbruik en exploitatie van de toeleveringsketen de aanvallerstrategie bepalen. AI versterkt elk van deze trends. De organisaties die nu datalaag-governance opbouwen—Zero Trust AI-data-toegang, real-time beleidsafdwinging, uniforme audittrails—zullen het competitieve en compliancevoordeel bezitten. De rest leert op de harde manier dat de data layer de laatste linie is—en dat ze die onbewaakt hebben gelaten.
Veelgestelde vragen
Diefstal van AI-inloggegevens vormt een directe bedreiging voor de beveiliging van bedrijfsdata. IBM X-Force ontdekte dat infostealer-malware in 2025 meer dan 300.000 AI-chatbot-inloggegevens blootlegde, waardoor paden ontstonden naar gevoelige bedrijfsdata. Organisaties die AI-assistenten inzetten, hebben Zero Trust data-toegangscontroles nodig die elke AI-aanvraag onafhankelijk authenticeren en autoriseren, zodat gecompromitteerde inloggegevens geen data-exfiltratiepaden worden. Het IBM X-Force 2026-rapport raadt aan om sterke AI-authenticatie af te dwingen en te monitoren op abnormale toegangspatronen.
De supply chain-data van IBM X-Force betekent dat producenten AI-data-uitwisselingen met partners op infrastructuurniveau moeten beheren, niet op contractniveau. Datalekken in de toeleveringsketen zijn sinds 2020 verviervoudigd, en het Black Kite 2026 Third-Party Breach Report documenteert een mediane openbaarmakingsvertraging van 73 dagen. AI-modellen, trainingsdata en inferentieresultaten die via ongecontroleerde kanalen stromen, creëren dezelfde trusted-path kwetsbaarheden die aanvallers nu al uitbuiten.
Shadow AI is nu de belangrijkste oorzaak van nalatige insider-incidenten, volgens het DTEX/Ponemon 2026 Insider Threat Report, met een gemiddelde jaarlijkse kost van $19,5 miljoen. IBM X-Force-data tonen dat 82% van de aanvallen malwarevrij is, wat betekent dat shadow AI-tools buiten traditionele detectie opereren. Organisaties hebben gecentraliseerde AI Data Gateways nodig die beleid afdwingen op elke AI-dataverzoek—voordat toezichthouders en aanvallers de blinde vlekken als eerste ontdekken.
AI-agenten die toegang hebben tot beschermde gezondheidsinformatie brengen identieke HIPAA-verplichtingen met zich mee als menselijke gebruikers—waaronder minimale noodzakelijke toegang, audittrails en meldplicht bij datalekken. De Kiteworks 2026 Forecast toont aan dat 63% van de organisaties geen doeleindbeperkingen kan afdwingen voor AI-agenten. Zorgorganisaties hebben governance op datalaag nodig die elke AI-aanvraag authenticeert, ABAC-beleid afdwingt voor alleen geautoriseerde data en fraudebestendige logs produceert als compliance-bewijs.
De duidelijkste metric is het tekort aan containment controls: 63% van de organisaties kan geen doeleindbeperkingen afdwingen voor AI-agenten, 60% kan een afwijkende agent niet beëindigen en slechts 43% heeft een gecentraliseerde AI Data Gateway, volgens de Kiteworks 2026 Forecast. Combineer dat met de IBM X-Force-bevinding dat kwetsbaarheidsexploitatie nu het belangrijkste aanvalspad is bij 40% van de incidenten, en de boodschap is helder: AI vergroot het aanvalsoppervlak en de meeste organisaties missen de datalaag-controls om het te beheersen.