
Hoe Shadow AI bedrijven $670K extra kost: IBM’s Datalekrapport 2025
De cijfers vertellen een onmiskenbaar verhaal. Hoewel IBM’s nieuwste Cost of a Data Breach Report laat zien dat de wereldwijde kosten van een datalek zijn gedaald tot $4,44 miljoen—de eerste daling in vijf jaar—zien Amerikaanse organisaties een recordgemiddelde van $10,22 miljoen. Maar achter deze koppen schuilt een nog verontrustender realiteit: 83% van de organisaties werkt zonder basismaatregelen om blootstelling van data aan AI-tools te voorkomen, volgens onderzoek van Kiteworks.
Deze paradox weerspiegelt de huidige staat van enterprise-beveiliging. Terwijl AI helpt de detectietijd van datalekken met 80 dagen te verkorten, creëert het tegelijkertijd enorme nieuwe kwetsbaarheden die de meeste organisaties niet eens kunnen waarnemen, laat staan beheersen. Shadow AI-incidenten zijn nu goed voor 20% van alle datalekken, terwijl 27% van de organisaties meldt dat meer dan 30% van hun door AI verwerkte data privé-informatie bevat—van klantgegevens tot handelsgeheimen.
Misschien het meest alarmerend: slechts 17% van de bedrijven beschikt over technische maatregelen die daadwerkelijk voorkomen dat medewerkers vertrouwelijke gegevens uploaden naar publieke AI-tools. De overige 83% vertrouwt op trainingen, waarschuwingsmails of helemaal niets. Organisaties bevinden zich in een gevaarlijke kloof tussen snelle AI-adoptie en beveiligingsimplementatie, wat ongekende compliance- en databeveiligingsrisico’s creëert waar bestaande kaders niet op berekend zijn.
Status van AI-gedreven Databeveiligingsdreigingen
Shadow AI-epidemie
Het onderscheid tussen goedgekeurde en niet-goedgekeurde AI is een van de belangrijkste beveiligingsonderscheidingen geworden. Uit IBM’s onderzoek blijkt dat shadow AI-datalekken organisaties $670.000 meer kosten dan gemiddeld—$4,63 miljoen versus $3,96 miljoen voor standaardincidenten. Nog zorgwekkender is dat deze shadow AI-incidenten 20% van alle datalekken vertegenwoordigen, tegenover slechts 13% voor goedgekeurde AI-systemen.
De patronen van datablootstelling zijn bijzonder zorgelijk. Wanneer shadow AI-incidenten plaatsvinden, gaat het in 65% van de gevallen om compromittering van klant-PII, aanzienlijk hoger dan het wereldwijde gemiddelde van 53%. Deze datalekken treffen vooral data die verspreid is over meerdere omgevingen (62%), wat benadrukt hoe shadow AI kwetsbaarheden creëert die de hele infrastructuur van een organisatie beslaan.
Kiteworks’ onderzoek voegt belangrijk context toe aan deze bevindingen. Met 86% van de organisaties die geen zicht hebben op AI-datastromen, herbergt de gemiddelde onderneming onbewust 1.200 niet-officiële applicaties die potentiële aanvalsvlakken creëren. Nog alarmerender is dat 52% van de medewerkers actief risicovolle OAuth-applicaties gebruikt die toegang hebben tot en data kunnen exfiltreren uit bedrijfsomgevingen. Deze shadow IT-uitbreiding betekent dat zelfs organisaties die beweren volledige AI-governance te hebben, waarschijnlijk meer dan duizend achterdeurtjes hebben waarvan ze het bestaan niet kennen.
Governance-illusie
Nergens is de kloof tussen perceptie en realiteit zo duidelijk als bij AI-governance. Terwijl 33% van de leidinggevenden beweert volledige AI-gebruikstracering te hebben, laat onafhankelijk onderzoek van Deloitte zien dat slechts 9% werkende governance-systemen heeft. Gartner’s analyse is nog ontnuchterender: slechts 12% van de organisaties heeft een toegewijde AI-governancestructuur.
Deze overmoedkloof—waar bedrijven hun capaciteiten met meer dan een factor drie overschatten—leidt tot daadwerkelijke beveiligingsfouten. IBM ontdekte dat 63% van de getroffen organisaties helemaal geen AI-governancebeleid heeft. Van degenen die AI-gerelateerde datalekken ervaarden, miste maar liefst 97% de juiste toegangscontroles. Zelfs basisbeveiligingshygiëne ontbreekt: slechts 32% van de organisaties voert regelmatige AI-modelaudits uit.
De gevolgen zijn voelbaar in het hele beveiligingsecosysteem. Zonder governance kunnen organisaties niet bijhouden welke AI-systemen gevoelige data verwerken, geen consistente beveiligingsmaatregelen afdwingen en geen compliance aantonen tijdens audits. Ze opereren feitelijk blind, terwijl ze denken volledig zicht te hebben.
Belangrijkste inzichten
-
Shadow AI-datalekken kosten $670K meer dan reguliere incidenten
Shadow AI-incidenten zijn nu goed voor 20% van alle datalekken en brengen een verwoestende meerprijs van $4,63 miljoen met zich mee versus $3,96 miljoen voor standaarddatalekken. Met de gemiddelde onderneming die 1.200 ongeautoriseerde applicaties host en 86% van de organisaties zonder zicht op AI-datastromen, is de kans groot dat deze kostbare incidenten zich al onopgemerkt voordoen.
-
Slechts 17% van de bedrijven kan daadwerkelijk datauploads naar AI stoppen
Terwijl 83% van de organisaties vertrouwt op trainingen, waarschuwingsmails of wensdenken, heeft slechts 17% technische maatregelen geïmplementeerd die automatisch ongeautoriseerde datauploads naar AI-platforms blokkeren. Dit beveiligingstheater laat bedrijven dagelijks blootstaan aan dataverlies, waarbij 27% meldt dat meer dan 30% van hun door AI verwerkte data privé-informatie bevat.
-
Elke sector faalt evenzeer in AI-beveiliging
De zorgsector schendt HIPAA met slechts 35% zicht op AI-gebruik, de financiële sector toont hoge bewustwording maar heeft met 16% het laagste niveau van technische controle, en zelfs technologiebedrijven die AI-beveiligingsoplossingen verkopen kunnen hun eigen data niet beschermen. Geen enkele sector heeft een veilige haven gevonden: ongeveer 17% van de organisaties in elke branche geeft toe geen idee te hebben welke data medewerkers delen met AI.
-
Blootstelling van inloggegevens creëert een tijdbom van 94 dagen
Medewerkers delen routinematig gebruikersnamen, wachtwoorden en toegangstokens met AI-assistenten, wat achterdeurtjes creëert die gemiddeld 94 dagen open blijven voordat herstel plaatsvindt. Gecombineerd met gemiddeld 15.000 “ghost users” per organisatie en platformkwetsbaarheden zoals de 25.000+ gevoelige mappen die via Microsoft 365 Copilot zijn blootgesteld, staan organisaties voor hardnekkige toegangsrisico’s die ze niet eens kunnen meten.
-
AI-beveiliging levert $1,9 miljoen besparing op bij datalekken—mits je het gebruikt
Organisaties die AI en automatisering intensief inzetten, verlagen de kosten van datalekken tot $3,62 miljoen vergeleken met $5,52 miljoen voor niet-gebruikers, terwijl de detectietijd met 80 dagen wordt verkort. De ironie is groot: dezelfde AI die nieuwe kwetsbaarheden creëert, biedt ook de beste verdediging—maar bedrijven moeten echte technische maatregelen implementeren in plaats van te hopen dat mensafhankelijke maatregelen dit keer wel werken.
Evolutie van aanvalsvectoren
Traditionele aanvalsvectoren zijn niet verdwenen—ze zijn geëvolueerd. Phishing blijft de belangrijkste initiële aanvalsvector bij 16% van de datalekken, met een gemiddelde schade van $4,8 miljoen. Maar het speelveld is fundamenteel veranderd. Generatieve AI heeft de tijd die nodig is om een overtuigende phishingmail te maken teruggebracht van 16 uur naar slechts 5 minuten, waardoor aanvallers op ongekende schaal en met grote complexiteit kunnen opereren.
Uit IBM’s data blijkt dat 16% van de datalekken nu AI-gedreven aanvallen betreft, waarbij AI-gegenereerde phishing 37% van deze incidenten uitmaakt. Supply chain-compromittering, vaak via bestandsoverdrachtsystemen en integraties met derden, is goed voor 15% van de datalekken met een gemiddelde schade van $4,91 miljoen. Deze supply chain-aanvallen nemen de meeste tijd om te detecteren en te beheersen—gemiddeld 267 dagen—omdat ze vertrouwensrelaties tussen organisaties en hun leveranciers uitbuiten.
De samensmelting van AI-mogelijkheden en traditionele aanvalsmethoden creëert een vermenigvuldigingseffect. Aanvallers gebruiken AI om verkenning te verbeteren, geloofwaardigere social engineering-campagnes op te zetten en kwetsbaarheden sneller te identificeren dan verdedigers ze kunnen patchen. Tegelijkertijd worden dezelfde AI-tools die organisaties inzetten voor efficiëntie, zelf nieuwe aanvalsvlakken.
Datablootstelling: het nieuwe normaal
Classificatiecrisis
De typen data die risico lopen, schetsen een zorgwekkend beeld van wat organisaties kunnen verliezen. Uit IBM’s analyse blijkt dat klant-PII de meeste datalekken domineert met 53% en $160 per gecompromitteerd record kost. Medewerker-PII volgt bij 37% van de datalekken ($168 per record), terwijl intellectueel eigendom—hoewel slechts in 33% van de incidenten gecompromitteerd—de hoogste kosten met zich meebrengt: $178 per record.
Kiteworks’ sectorspecifieke analyse laat zien hoe wijdverbreid deze blootstelling is geworden. De technologiesector voert de lijst aan met 27% van de bedrijven die melden dat meer dan 30% van hun door AI verwerkte data privé of gevoelig is. Zorg, financiën en producenten volgen met elk 26%. Zelfs de juridische sector, waarvan het bestaan afhankelijk is van vertrouwelijkheid, laat zien dat 23% van de kantoren extreme hoeveelheden gevoelige data via AI-tools verwerkt.
Het meest zorgwekkend is de universele aard van dit probleem. Ongeveer 17% van de organisaties in elke sector geeft openlijk toe geen idee te hebben hoeveel gevoelige data medewerkers delen met AI-platforms. Dit is niet beperkt tot onvoorbereide bedrijven of specifieke sectoren—het is een epidemie die iedereen treft, van overheidsinstanties tot bedrijven in de life sciences.
Kwetsbaarheden in opslaglocaties
Waar data zich bevindt, heeft grote invloed op zowel de kosten van datalekken als de detectietijd. Uit IBM’s onderzoek blijkt een duidelijk kostenverschil: datalekken waarbij data over meerdere omgevingen is verspreid, kosten gemiddeld $5,05 miljoen—het hoogste van alle configuraties. Private cloud-datalekken kosten $4,68 miljoen, publieke cloud-incidenten gemiddeld $4,18 miljoen, terwijl on-premises datalekken relatief lager uitvallen op $4,01 miljoen.
Deze kostenverschillen hangen direct samen met de complexiteit van detectie. Cross-omgeving datalekken nemen 276 dagen om te identificeren en te beheersen—59 dagen langer dan on-premises incidenten. Private cloud-datalekken vereisen 247 dagen, publieke cloud-incidenten gemiddeld 251 dagen. Het patroon is duidelijk: naarmate data zich verspreidt over meerdere platforms, verliezen beveiligingsteams zicht en controle, wat leidt tot langere blootstellingsperioden en hogere kosten.
De uitdaging wordt groter wanneer AI in het spel komt. Shadow AI-incidenten treffen vooral data die verspreid is over meerdere omgevingen en publieke clouds (62%), volgens Kiteworks. Dit creëert een perfecte storm waarin de moeilijkst te beveiligen configuraties het hoogste risico lopen door ongecontroleerde AI-tools.
Inloggegevens-tijdbom
Blootstelling van inloggegevens vormt een uniek gevaarlijk aspect van AI-gerelateerde risico’s. Kiteworks ontdekte dat medewerkers routinematig gebruikersnamen, wachtwoorden en toegangstokens delen met AI-assistenten om “workflows te stroomlijnen”. Elke blootgestelde inlogmogelijkheid wordt een potentieel achterdeurtje in bedrijfssystemen, met een mediane hersteltijd van 94 dagen—meer dan drie maanden open toegang voor potentiële aanvallers.
De omvang van deze blootstelling is enorm. Organisaties hebben gemiddeld 15.000 “ghost users”—verouderde maar nog steeds actieve accounts met volledige systeemtoegang. Voeg daar 176.000 inactieve externe identiteiten aan toe in de gemiddelde onderneming, en het aanvalsvlak wordt gigantisch. Deze slapende inloggegevens, wanneer gedeeld met AI-systemen, creëren hardnekkige kwetsbaarheden die lang na het vertrek van een medewerker of het einde van een contract kunnen worden misbruikt.
Platforms-specifieke risico’s vergroten het gevaar. Uit onderzoek van Varonis blijkt dat 90% van de organisaties gevoelige bestanden heeft blootgesteld via Microsoft 365 Copilot, met gemiddeld meer dan 25.000 gevoelige mappen die toegankelijk zijn voor iedereen met de juiste prompt. In Salesforce-omgevingen heeft 100% van de implementaties minstens één account waarmee alle data geëxporteerd kan worden. Dit zijn geen theoretische kwetsbaarheden—het zijn actieve blootstellingspunten waar een enkele verkeerde query jaren aan vertrouwelijke informatie kan onthullen.
Compliance: de regelgevende tsunami
De handhavingsversnelling
Het regelgevend landschap is drastisch veranderd. Amerikaanse instanties introduceerden 59 AI-regelgevingen in 2024—meer dan het dubbele van het jaar ervoor. Wereldwijd voerden 75 landen AI-wetgeving op met 21%. Toch noemt slechts 12% van de bedrijven compliance-overtredingen als een van hun belangrijkste AI-zorgen, volgens Kiteworks. Deze kloof tussen regelgevingsversnelling en organisatorisch bewustzijn creëert een compliance-tijdbom.
De boetestatistieken van IBM onderstrepen de financiële realiteit. Van de getroffen organisaties betaalde 32% boetes, waarvan 48% meer dan $100.000. Een kwart van de organisaties betaalde boetes van meer dan $250.000, waarbij Amerikaanse bedrijven de hoogste sancties kregen—een belangrijke oorzaak van de recordhoge kosten van datalekken in de VS.
De compliance-uitdaging gaat verder dan alleen boetes. Organisaties lopen reputatieschade op, krijgen operationele beperkingen en mogelijk strafrechtelijke aansprakelijkheid voor leidinggevenden. Elke dag van non-compliance vergroot het risico, zeker nu toezichthouders steeds geavanceerdere detectiemethoden en informatie-uitwisselingsafspraken ontwikkelen.
Specifieke compliance-overtredingen
Huidige AI-praktijken overtreden dagelijks specifieke wettelijke bepalingen. GDPR Artikel 30 vereist het bijhouden van alle verwerkingsactiviteiten—onmogelijk als organisaties AI-uploads niet kunnen traceren. CCPA Sectie 1798.130 verplicht tot het kunnen traceren en verwijderen van persoonlijke informatie op verzoek, maar bedrijven weten niet welke AI-systemen hun data bevatten.
De vereisten van HIPAA onder § 164.312 vragen om volledige audittrails voor alle elektronische toegang tot beschermde gezondheidsinformatie (ePHI). Dit wordt onhaalbaar met shadow AI, waarbij zorgmedewerkers patiëntgegevens delen via persoonlijke apparaten en ongeautoriseerde apps. Evenzo vereist SOX-compliance financiële datacontroles die AI-gebruik volledig omzeilt wanneer medewerkers kwartaalresultaten in ChatGPT plakken voor analyse.
De auditkloof wordt kritiek in combinatie met falend identiteitsbeheer. Met 60% van de bedrijven die geen zicht hebben op hun AI-gebruik, kunnen ze niet reageren op klantverzoeken, compliance aantonen tijdens audits of datalekken onderzoeken. Slechts 10% van de bedrijven heeft hun bestanden correct gelabeld—een fundamentele vereiste voor GDPR Artikel 5 en HIPAA Privacy Rule-compliance. Zonder correcte dataclassificatie kunnen organisaties geen rechtmatige verwerking aantonen, niet reageren op verwijderverzoeken of bewijzen dat ze gevoelige informatie naar risiconiveau hebben beschermd.
Sectorelle paradoxen: geen veilige haven
De gevaarlijke illusie van de zorg
Zorgorganisaties staan voor misschien wel de scherpste tegenstelling tussen vereisten en realiteit. HIPAA vereist 100% tracering van patiëntgegevens, maar slechts 35% van de zorgorganisaties kan hun AI-gebruik zien. Elke niet-getraceerde ChatGPT-query met patiëntinformatie schendt federale wetgeving en creëert enorme aansprakelijkheidsrisico’s.
De data van Varonis voegt nog een laag zorg toe: 90% van de zorgorganisaties heeft beschermde gezondheidsinformatie (PHI) blootgesteld via AI-copilots, met gemiddeld 25.000+ onbeveiligde mappen met gevoelige patiëntdata. Ondanks deze kwetsbaarheden herkent slechts 39% van de zorgbestuurders AI als een beveiligingsrisico—het laagste bewustzijnsniveau van alle sectoren.
Deze zelfgenoegzaamheid heeft een hoge prijs. Datalekken in de zorg kosten gemiddeld $7,42 miljoen en nemen 279 dagen om op te lossen—meer dan vijf weken langer dan het wereldwijde gemiddelde. De organisaties die worden vertrouwd met levensbelangrijke data werken met minder beveiliging dan winkels, wat een paradox creëert waarbij de meest kritieke data de minste bescherming krijgt.
Kennis-actie-kloof in de financiële sector
Banken en investeringsmaatschappijen tonen de grootste kloof tussen bewustzijn en actie. Ze maken zich het meest zorgen over datalekken (29%), maar hebben met slechts 16% het laagste niveau van technische maatregelen. Ondanks het verwerken van rekeningnummers, transacties en financiële gegevens, geeft 39% toe aanzienlijke privédata naar AI-tools te sturen.
Deze discrepantie uit zich in gemiddelde datalekschade van $5,56 miljoen voor de financiële sector—ruim boven het wereldwijde gemiddelde. Financiële instellingen kennen de risico’s: ze begrijpen de wettelijke vereisten, staan onder streng toezicht en werken in een sterk gereguleerde omgeving. Toch kiezen ze consequent voor snelheid en gemak boven beveiliging, in de veronderstelling dat ze het risico met beleid en procedures kunnen beheersen in plaats van met technische maatregelen.
Geloofwaardigheidscrisis in de technologiesector
De positie van de technologiesector onthult de diepste ironie. Terwijl 100% van de techbedrijven AI-producten en -diensten bouwt, beschermt slechts 17% zich tegen de AI-risico’s van hun eigen medewerkers—een hypocrisiekloof van 83%. Dezezelfde bedrijven die anderen onderwijzen over AI-veiligheid, werken zonder basismaatregelen en ondermijnen hun geloofwaardigheid wanneer datalekken onvermijdelijk optreden.
Technologiebedrijven rapporteren het hoogste percentage extreme datablootstelling, waarbij 27% erkent dat meer dan 30% van hun door AI verwerkte data privé of gevoelig is. Met een gemiddelde schade van $4,79 miljoen per datalek schaden deze incidenten niet alleen de financiën, maar ook de marktpositie en het vertrouwen van klanten. De sector die AI-beveiligingsoplossingen verkoopt, kan zijn eigen AI-gebruik niet beveiligen—een geloofwaardigheidscrisis die de reputatie van de hele sector bedreigt.
Supply chain/bestandsoverdracht-verbinding
Vermenigvuldigingseffect van derden
Kwetsbaarheden in de supply chain zijn uitgegroeid tot een kritiek zwaktepunt in AI-beveiliging. IBM meldt dat supply chain-compromittering goed is voor 15% van de datalekken met een gemiddelde schade van $4,91 miljoen. Deze incidenten nemen de meeste tijd om te detecteren en te beheersen—267 dagen—omdat ze vertrouwensrelaties uitbuiten die beveiligingstools moeilijk kunnen monitoren.
Het risico van derden is geëxplodeerd: betrokkenheid bij datalekken is in één jaar verdubbeld van 15% naar 30%. Nog zorgwekkender is dat 44% van de zero-day-aanvallen nu gericht is op beheerde bestandsoverdracht-systemen—de platforms die organisaties juist gebruiken voor AI-data-uitwisseling. Elke AI-tool van derden vermenigvuldigt de blootstelling exponentieel en creëert cascaderende kwetsbaarheden in partnernetwerken.
API/plugin-probleem
De supply chain van shadow AI manifesteert zich vooral via gecompromitteerde apps, API’s en plugins. Kiteworks ontdekte dat 30% van de AI-beveiligingsincidenten plaatsvindt via deze integraties van derden, met rimpelwerkingen door de hele organisatie. Deze incidenten leiden tot 60% datacompromittering en 31% operationele verstoring—veel meer impact dan directe aanvallen.
SaaS-geleverde AI vormt de grootste risicobron en is goed voor 29% van de AI-beveiligingsincidenten. Organisaties kunnen datastromen via AI-diensten van derden niet traceren, niet controleren hoe data wordt verwerkt of opgeslagen, en kunnen het niet terughalen zodra het gedeeld is. Het gemak van plug-and-play AI-oplossingen heeft onzichtbare gevolgen—elke integratie kan jaren aan opgebouwde data blootstellen aan onbekende risico’s.
Oplossingen en de weg vooruit
Technologie-gedreven noodzaak
De kostenanalyse van IBM wijst duidelijk de weg: technische maatregelen leveren aantoonbare beveiligingsverbeteringen op. Organisaties die AI en automatisering intensief gebruiken, besparen $1,9 miljoen per datalek ($3,62 miljoen versus $5,52 miljoen voor niet-gebruikers). DevSecOps-aanpakken verlagen de kosten met $227.000, terwijl SIEM-implementatie $212.000 bespaart.
Toch is de realiteit volgens Kiteworks ontnuchterend: slechts 17% van de organisaties beschikt over geautomatiseerde blokkeer- en scanmogelijkheden. De overige 83% vertrouwt op mensafhankelijke maatregelen die in elke sector falen. Training stopt uploads niet. Beleid voorkomt delen niet. Waarschuwingen blokkeren datablootstelling niet. Alleen technische maatregelen bieden echte bescherming.
Vier cruciale acties
Organisaties moeten vier directe stappen zetten om de AI-beveiligingscrisis aan te pakken:
1. Zie de realiteit onder ogen: Sluit de overmoedkloof van 300% tussen ingeschatte en werkelijke capaciteiten. Audit het daadwerkelijke AI-gebruik, niet alleen theoretische kaders. Volg en beheer input net zo grondig als output. Accepteer dat medewerkers nu al gevoelige data delen en werk terug vanuit die realiteit.
2. Implementeer technische maatregelen: Mensafhankelijke maatregelen zijn in elke onderzochte sector mislukt. Geautomatiseerd blokkeren en scannen vormen de minimale bescherming tegen AI-tijdperk-dreigingen. Organisaties moeten maatregelen implementeren die op machinesnelheid werken en ongeautoriseerde uploads blokkeren voordat datablootstelling plaatsvindt. Kun je de upload niet stoppen, dan ben je al te laat.
3. Richt een Data Governance Command Center in: Gescheiden beveiliging leidt tot cascaderende mislukkingen. Organisaties hebben een uniform governance-platform nodig dat elke databeweging volgt, classificatiebeleid afdwingt en audittrails bijhoudt op alle AI-touchpoints. Dit gaat niet om nóg een dashboard, maar om forensisch bewijs dat voldoet aan wettelijke vereisten en veilige AI-adoptie mogelijk maakt.
4. Krijg volledig inzicht: Zonder te weten welke data waarheen stroomt, is compliance onmogelijk en risicobeheer fictie. Real-time AI-monitoring moet cloud-, on-premises- en shadow IT-omgevingen omvatten. Datastamregistratie moet reiken van initiële creatie tot AI-verwerking en uiteindelijke output. Platformspecifieke maatregelen voor Microsoft 365, Salesforce en andere grote systemen zijn niet optioneel—ze zijn essentieel voor overleving.
Conclusie: de huidige situatie vraagt om actie
De data schetsen een ondubbelzinnig beeld: organisaties opereren in een gevaarlijke illusie rond AI-beveiliging. De botsing van explosieve AI-adoptie, stijgende beveiligingsincidenten en versnellende regelgeving heeft een ongekend risicolandschap gecreëerd dat traditionele beveiligingsaanpakken niet kunnen adresseren.
Modelbesmetting is permanent—elke gevoelige data die vandaag met AI-systemen wordt gedeeld, raakt op onomkeerbare wijze ingebed. Dat 49% van de organisaties pas na een datalek in beveiliging investeert (tegenover 63% vorig jaar) wijst op verontrustende zelfgenoegzaamheid. Slechts 45% is van plan te investeren in AI-gedreven beveiligingsoplossingen, terwijl AI-gedreven aanvallen juist toenemen.
Geen enkele sector heeft een veilige haven gevonden. De compliance-eisen in de zorg hebben grootschalige PHI-blootstelling niet voorkomen. Bewustwording in de financiële sector heeft niet geleid tot betere maatregelen. De expertise van technologiebedrijven heeft hun eigen data niet beschermd. De verantwoordelijkheden van overheidsinstanties hebben de bescherming van burgerdata niet gegarandeerd. Het universele falen over sectoren heen bewijst dat externe druk alleen niet tot de noodzakelijke veranderingen leidt.
De bevindingen tonen geen toekomstige crisis, maar een actuele realiteit. Met 83% van de organisaties zonder basis technische maatregelen, 27% die gevoelige data laat weglekken naar AI-systemen en 97% van AI-getroffen organisaties zonder juiste toegangscontroles, is de vraag niet óf incidenten zich voordoen, maar hoe ernstig ze zullen zijn. Organisaties moeten erkennen dat hun huidige aanpak—gebaseerd op vertrouwen, training en hoop—al heeft gefaald. Alleen directe implementatie van technische maatregelen, uitgebreide governance en volledig inzicht kunnen de AI-beveiligingscrisis aanpakken die uit deze rapporten naar voren komt.
Veelgestelde vragen
Shadow AI verwijst naar ongeautoriseerde AI-tools en -applicaties die medewerkers gebruiken zonder goedkeuring of toezicht van IT. Volgens IBM’s 2025 Cost of a Data Breach Report kosten datalekken met shadow AI organisaties gemiddeld $4,63 miljoen—$670.000 meer dan standaardincidenten. Deze hogere kosten komen door langere detectietijden (247 dagen versus 241 dagen), bredere datablootstelling over meerdere omgevingen (62% van de shadow AI-incidenten) en het onvermogen om te traceren of te beheersen welke gevoelige data is gedeeld. Uit onderzoek van Kiteworks blijkt dat de gemiddelde onderneming 1.200 niet-officiële applicaties heeft die potentiële kwetsbaarheden creëren, waarbij 86% van de organisaties volledig blind is voor hun AI-datastromen.
De harde realiteit is dat 83% van de organisaties geen technische maatregelen heeft om te detecteren of te voorkomen dat medewerkers vertrouwelijke data uploaden naar AI-platforms. Waarschuwingssignalen zijn onder meer: medewerkers die AI-productiviteitstools bespreken in vergaderingen, verzoeken om AI-toolabonnementen en onverklaarde data die verschijnt in AI-gegenereerde output. Kiteworks ontdekte dat 27% van de organisaties meldt dat meer dan 30% van hun door AI verwerkte data privé-informatie bevat, waaronder klantgegevens, financiële data en handelsgeheimen. Zonder geautomatiseerde blokkeer- en monitoringtools ben je waarschijnlijk al blootgesteld—de vraag is in welke mate.
AI-gebruik veroorzaakt directe overtredingen van diverse regelgeving. GDPR Artikel 30 vereist het bijhouden van alle gegevensverwerkingsactiviteiten—onmogelijk als je AI-uploads niet kunt traceren. CCPA Sectie 1798.130 verplicht tot het kunnen verwijderen van persoonlijke informatie op verzoek, maar bedrijven weten niet welke AI-systemen hun data bevatten. HIPAA § 164.312 vereist volledige audittrails die door shadow AI onhaalbaar worden. IBM ontdekte dat 32% van de getroffen organisaties boetes betaalde, waarvan 48% meer dan $100.000. Met alleen al in 2024 59 nieuwe AI-regelgevingen is non-compliance niet alleen risicovol—het is duur.
De zorgsector voert de lijst aan met datalekken van $7,42 miljoen per incident en een oplostijd van 279 dagen—terwijl slechts 35% van de zorgorganisaties hun AI-gebruik kan traceren. De technologiesector toont de hoogste datablootstelling, met 27% die meldt dat meer dan 30% van hun door AI verwerkte data privé of gevoelig is. De financiële sector heeft gemiddeld $5,56 miljoen schade per datalek, ondanks het hoogste risicobewustzijn. Verrassend genoeg zijn de blootstellingspercentages opmerkelijk consistent over sectoren heen—ongeveer 17% van de organisaties in elke sector geeft toe geen idee te hebben hoeveel gevoelige data medewerkers delen met AI-platforms.
De data van IBM is duidelijk: alleen technische maatregelen bieden echte bescherming. Organisaties die AI en automatisering intensief gebruiken, besparen $1,9 miljoen per datalek ($3,62 miljoen versus $5,52 miljoen). Effectieve maatregelen zijn onder meer het automatisch blokkeren van ongeautoriseerde AI-toegang, real-time dataclassificatie en -scanning, uniforme governance-platforms die alle AI-interacties volgen en forensisch sterke audittrails. Mensafhankelijke maatregelen falen consequent—trainingen (gebruikt door 40% van de bedrijven), waarschuwingsmails (20%) en geschreven beleid (10%) bieden geen daadwerkelijke bescherming. De belangrijkste conclusie: kun je de upload niet automatisch blokkeren voordat het gebeurt, dan ben je al te laat.
Aanvullende bronnen
- Blog Post Zero Trust Architectuur: Nooit vertrouwen, altijd verifiëren
- Video Hoe Kiteworks helpt bij het versterken van het Zero Trust Data Layer Model van de NSA
- Blog Post Wat het betekent om Zero Trust uit te breiden naar de contentlaag
- Blog Post Vertrouwen opbouwen in Generatieve AI met een Zero Trust-aanpak
- Video Kiteworks + Forcepoint: Compliance en Zero Trust aantonen op de contentlaag