Uw ziekenhuisgegevens van patiënten staan onder AI-aangedreven aanval. De meeste verdedigingen zijn gebouwd voor een ander tijdperk.
Het datalek begon niet met een complexe zero-day exploit. Het begon met toegang tot een elektronisch patiëntendossier (EHR) systeem, waarbij een onbevoegde partij negen maanden lang toegang had voordat iemand het opmerkte.
Dat is de tijdlijn die wordt beschreven in de OSF-datalek gemeld door Shaw Local: een aanvaller kreeg in januari 2025 toegang tot het Cerner EHR-platform dat meerdere OSF-locaties bedient, het ziekenhuis werd in september op de hoogte gesteld, en patiënten werden pas eind december geïnformeerd — nadat wetshandhaving om uitstel had gevraagd. De gecompromitteerde data omvatte namen, burgerservicenummers, diagnoses, medicatie en testresultaten.
Dit is geen uitzondering. Het is het nieuwe normaal. En nu kunstmatige intelligentie de kosten, snelheid en vaardigheidseisen voor cyberaanvallen verlaagt, staan ziekenhuizen voor een dreigingslandschap waar hun verouderde beveiligingsarchitecturen nooit voor zijn ontworpen.
5 Belangrijke Inzichten
- AI heeft cyberaanvallen op ziekenhuizen goedkoper, sneller en moeilijker te detecteren gemaakt. Zoals Shaw Local meldt, heeft AI de drempel voor aanvallers die ziekenhuizen willen aanvallen drastisch verlaagd. Cybersecurity-experts merken op dat dreigingsactoren nu binnen enkele uren functionele aanvalstools kunnen bouwen met AI-tools, waarmee ze verkenning automatiseren, gestolen data analyseren en phishingmails opstellen die traditionele filters omzeilen — en dat alles tegen minimale kosten.
- Ziekenhuizen kunnen zich geen downtime permitteren — en aanvallers weten dat. In tegenstelling tot de meeste bedrijven die dagenlang systeemuitval kunnen opvangen, werken ziekenhuizen volgens een levensbedreigende tijdlijn. Als systemen uitvallen, worden operaties geannuleerd, verdwijnen patiëntenportalen en zijn diagnostische resultaten niet beschikbaar. Deze operationele urgentie is precies waarom ransomware-operators zich richten op de zorg: de druk om diensten snel te herstellen maakt ziekenhuizen eerder bereid om te betalen.
- Het OSF-datalek onthult de kwetsbaarheid van EHR-systemen in de zorg. Het OSF-datalek liet zien dat een onbevoegde derde partij via de EHR-leverancier van OSF, Cerner, al in januari 2025 toegang kreeg tot elektronische patiëntendossiers — waarbij het ziekenhuis pas in september werd geïnformeerd. Gecompromitteerde data omvatte namen, burgerservicenummers, diagnoses, medicatie en testresultaten bij diverse locaties.
- AI-tools die door ziekenhuispersoneel worden gebruikt, creëren nieuwe risico’s op datalekken. Het zijn niet alleen externe aanvallers. Cybersecurity-experts waarschuwen dat AI-tools die door ziekenhuismedewerkers worden ingezet voor klinische en administratieve workflows — zoals ChatGPT en andere generatieve AI-platforms — onbedoelde kanalen voor datalekken creëren. Personeel dat patiëntgegevens, klinische notities of operationele details invoert in publieke AI-platforms loopt het risico dat beschermde gezondheidsinformatie buiten de organisatie toegankelijk wordt.
- 63% van de organisaties kan geen doeleinde-beperkingen afdwingen voor AI-agenten die toegang hebben tot patiëntgegevens. Volgens het Kiteworks 2026 Forecast Report kan 63% van de organisaties geen doeleinde-beperkingen afdwingen voor AI-agenten, heeft 60% geen kill switch voor AI die zich misdraagt, en kan 78% geen data valideren die AI-trainingspijplijnen binnenkomt. In de zorg, waar HIPAA de minimumnorm voor toegang tot PHI voorschrijft, vormen deze gaten zowel een beveiligingsfout als een compliance-overtreding.
AI heeft cybercriminaliteit veranderd in een goedkope, winstgevende operatie
De cybersecurity-experts die door Shaw Local zijn geïnterviewd, zijn eensgezind: AI heeft de economie van aanvallen op ziekenhuizen fundamenteel veranderd. Brian Pichman, CISO bij Illinois Valley Community College, omschreef de impact van AI op aanvalscapaciteiten als transformerend — dreigingsactoren kunnen nu binnen enkele uren functionele aanvalstools bouwen tegen verwaarloosbare kosten.
Dit sluit aan bij wat het CrowdStrike 2026 Global Threat Report op grotere schaal documenteerde: een stijging van 89% jaar-op-jaar in AI-ondersteunde vijandige operaties, waarbij de gemiddelde eCrime breakout-tijd — van eerste toegang tot laterale beweging — daalde tot slechts 29 minuten. In de zorg, waar onderling verbonden systemen betekenen dat een gecompromitteerd EHR-platform miljoenen patiëntendossiers kan blootstellen, is dat snelheidsvoordeel verwoestend.
AI helpt aanvallers ook slimmer te opereren — door gestolen data te analyseren, waardevolle doelwitten te identificeren en strategieën te ontwikkelen die zijn afgestemd op ziekenhuisarchitecturen. Een peer-reviewed overzicht gepubliceerd in Risk Management and Healthcare Policy (Di Palma et al., 2025) bracht deze risico’s onder in drie categorieën: onbevoegde toegang tot klinische data, manipulatie van AI-gestuurde medische apparaten en systeemniveau-kwetsbaarheden waarbij één gecompromitteerd onderdeel gevolgen heeft voor het hele ziekenhuisnetwerk.
Waarom ziekenhuizen het perfecte doelwit zijn — en waarom het erger wordt
De kwetsbaarheid van de zorg is structureel, niet toevallig. Ziekenhuizen draaien dag en nacht tientallen onderling verbonden applicaties. Verouderde systemen die geen beveiligingsupdates meer ontvangen delen netwerken met moderne diagnostische apparatuur. En de data die ziekenhuizen bezitten — PHI zoals diagnoses, behandelgeschiedenis, burgerservicenummers en verzekeringsgegevens — is een van de meest waardevolle op het dark web. Een klein bedrijf kan dagenlang downtime opvangen, maar een ziekenhuis niet. Aanvallers maken misbruik van deze urgentie, wetende dat levensbedreigende gevolgen organisaties eerder tot betaling bewegen.
De cijfers bevestigen dit. Cyberaanvallen op ziekenhuizen zijn meer dan verdubbeld van 304 in 2022 naar 624 in 2023, volgens het overzicht van Di Palma. Het OSF-datalek is allerminst uniek — Morris Hospital meldde een soortgelijk incident in 2023, waarbij gecompromitteerde data namen, adressen, burgerservicenummers, medische dossiers en diagnostische codes omvatte.
De dreiging van binnenuit: AI-tools die ziekenhuispersoneel gebruikt creëren nieuwe blootstellingskanalen
Externe aanvallers zijn niet de enige bron van blootstelling van patiëntgegevens. Een kritisch en ondergewaardeerd risico: AI-tools die binnen ziekenhuizen worden ingezet voor klinische en administratieve doeleinden creëren datalekkanalen die de meeste beveiligingsarchitecturen niet adresseren.
Ziekenhuispersoneel dat patiëntinformatie, klinische notities of operationele data invoert in publieke generatieve AI-platforms, maakt in feite beschermde gezondheidsinformatie toegankelijk buiten de controle van de organisatie. Zodra data een publiek platform binnenkomt, valt het niet meer onder HIPAA’s toegangscontroles, vereisten voor audit logging of meldingsplicht bij datalekken — maar de aansprakelijkheid van de organisatie verdwijnt daarmee niet.
Het Kiteworks 2026 Forecast Report documenteert de schaal van deze governance-kloof: 78% van de organisaties kan geen data valideren die AI-trainingspijplijnen binnenkomt. In de zorg betekent dat dat patiëntgegevens mogelijk ongeclassificeerd AI-systemen binnenstromen, zonder toegangscontroles of audittrails — een directe schending van HIPAA’s minimumnorm en een compliance-risico dat met elke ongemonitorde interactie groter wordt.
HIPAA is ontworpen voor een pre-AI dreigingslandschap. De gaten worden zichtbaar.
De Security Rule van HIPAA vereist dat gedekte entiteiten maatregelen nemen ter bescherming van elektronische PHI. Maar de regelgeving is geschreven voor een tijdperk waarin de belangrijkste dreigingen onbevoegde menselijke toegang en verloren apparaten waren — niet AI-geautomatiseerde verkenning die binnen minuten data kan identificeren en exfiltreren, of generatieve AI-tools die ziekenhuispersoneel gebruikt om klinische informatie op publieke platforms te verwerken.
De OSF-tijdlijn illustreert het probleem: negen maanden onbevoegde toegang voordat er melding werd gemaakt, nog eens drie maanden voordat patiënten werden geïnformeerd. Volgens HIPAA’s meldingsplicht bij datalekken moeten gedekte entiteiten betrokken individuen binnen 60 dagen na ontdekking van een datalek informeren. Maar wanneer AI-ondersteunde aanvallers hardnekkige toegang opbouwen die maandenlang onopgemerkt blijft, kan de 60-dagenklok pas gaan lopen als de schade al is aangericht. De OCR verwijst steeds vaker naar schendingen van de minimumnorm in handhavingsacties, met boetes tot $1,5 miljoen per overtredingscategorie per jaar.
De governance-kloof: de meeste zorgorganisaties kunnen niet besturen wat ze niet zien
Het Kiteworks 2026 Forecast Report kwantificeert wat het OSF-datalek in de praktijk aantoont. Drieënzestig procent van de organisaties kan geen doeleinde-beperkingen afdwingen voor AI-agenten die toegang hebben tot gevoelige data. Zestig procent heeft geen kill switch voor AI-agenten die zich misdragen. Drieëndertig procent mist audittrails van bewijskwaliteit en 61% heeft gefragmenteerde logs die nutteloos zijn bij een onderzoek of audit.
Voor zorgorganisaties die onder HIPAA vallen, zijn dit geen abstracte governance-metrics — het zijn compliance-fouten met concrete gevolgen. Als jouw AI-ondersteunde klinische beslissingsondersteuningssysteem dezelfde EHR-toegang heeft als een aanvaller via Cerner heeft verkregen, en je kunt geen doeleinde-beperkte toegang en onveranderlijke audittrails aantonen voor de interacties van dat AI-systeem, dan heb je twee datalekvectoren en één set ontoereikende controles die geen van beide afdekt.
Zorgorganisaties rapporteren ook de hoogste e-mailgerelateerde dataproblemen van alle sectoren, volgens het Kiteworks 2026 Data Sovereignty Report, waarschijnlijk veroorzaakt door de gevoeligheid en hoeveelheid patiëntgegevens die via klinische communicatiekanalen stromen. Wanneer e-mailsystemen, EHR-platforms, AI-tools en medische apparaten allemaal PHI verwerken via gescheiden beveiligingsarchitecturen met gescheiden logging — of helemaal geen logging — is het aanvalsoppervlak niet alleen groot. Het is onbestuurbaar.
Prompts zijn geen vangrails. Architectuur wel.
Hier biedt het Kiteworks Private Data Network een oplossing voor de structurele kloof tussen wat het huidige dreigingslandschap in de zorg vereist en wat de meeste ziekenhuisbeveiligingsarchitecturen daadwerkelijk bieden.
Tegen AI-ondersteunde aanvallers die binnen enkele minuten van eerste toegang naar data-exfiltratie kunnen gaan, en tegen interne AI-tools die ongecontroleerde datalekkanalen creëren, vereist effectieve verdediging handhaving op infrastructuurniveau die continu, automatisch en onafhankelijk van het gedrag van individuele gebruikers of AI-agenten werkt.
Granulaire, doeleinde-gebonden toegangscontroles handhaven HIPAA’s minimumnorm op infrastructuurniveau. Elke AI-agent, elke klinische applicatie en elke gebruiker die PHI benadert krijgt doeleinde-beperkte, tijdsgebonden rechten die bij elke interactie worden afgedwongen — niet brede rolgebaseerde toegang waarmee 500 medewerkers data kunnen zien die slechts 50 nodig hebben.
Realtime anomaliedetectie met automatische opschorting identificeert gecompromitteerde accounts, ongebruikelijke patronen van data-toegang of AI-agenten die buiten de toegestane parameters opereren, en schakelt deze uit voordat er schade ontstaat. Tegen negen maanden onopgemerkte datalekken zoals bij OSF, is continue gedragsmonitoring het verschil tussen een ingeperkt incident en een catastrofale blootstelling van data.
DLP-handhaving over elk communicatiekanaal voorkomt dat PHI de gecontroleerde omgeving verlaat via e-mail, bestandsoverdracht, SFTP, beheerde bestandsoverdracht, webformulieren, API’s of AI-toolintegraties. Wanneer ziekenhuispersoneel probeert patiëntgegevens in publieke AI-platforms in te voeren, stopt DLP-handhaving de data aan de grens — voordat het een ongecontroleerde blootstelling wordt.
FIPS 140-3 gevalideerde encryptie met klantbeheerde sleutels beschermt PHI in rust en onderweg, voldoet aan HIPAA’s encryptievereisten en de technische beveiligingsnormen die de OCR evalueert bij handhavingsacties.
En als fundament: onveranderlijke, gecentraliseerde audittrails die elke toegang, elke interactie en elke handhavingsactie over elk kanaal loggen. Tegenover HIPAA’s auditvereisten en de onvermijdelijkheid van onderzoek naar datalekken, maken deze trails het verschil tussen gedocumenteerde compliance en een negatieve bevinding van de toezichthouder.
Wat elke CISO in de zorg nu moet doen
Maak een inventarisatie van alle AI-assets in elke klinische en administratieve workflow. Het Shaw Local-rapport bevestigt dat AI-tools die door ziekenhuispersoneel worden gebruikt ongemonitorde datalekkanalen creëren. Je kunt niet besturen wat je niet weet dat bestaat. Identificeer elke AI-tool, agent en integratie die met patiëntgegevens werkt — en breng ze allemaal onder dezelfde toegangscontroles, DLP-handhaving en audit logging als menselijke gebruikers.
Handhaaf minimumnodige toegang op infrastructuurniveau, niet alleen op beleidsniveau. Het OSF-datalek toont aan wat er gebeurt als toegangscontroles onvoldoende zijn: negen maanden onbevoegde toegang tot EHR-data. Kiteworks handhaaft doeleinde-gebonden, tijdsgebonden toegang voor elke gebruiker, applicatie en AI-agent die met PHI werkt — en overbrugt zo de kloof tussen HIPAA-vereisten en de operationele realiteit.
Breid DLP en audit logging uit naar elke AI-pijplijn, prompt en integratie. Wanneer 78% van de organisaties geen data kan valideren die AI-trainingspijplijnen binnenkomt, is elke ongemonitorde AI-interactie een potentiële datalekvector. DLP-handhaving voorkomt dat PHI gecontroleerde kanalen verlaat, terwijl onveranderlijke audittrails elke datainteractie documenteren voor HIPAA-compliance en onderzoek naar datalekken.
Automatiseer detectie en respons op de snelheid van aanvallers. De 29-minuten breakout-tijd van CrowdStrike en de negen maanden onopgemerkte toegang bij OSF zijn twee kanten van hetzelfde probleem: verdedigingsarchitecturen die afhankelijk zijn van menselijke triage en periodieke audits kunnen het tempo niet bijhouden. Kiteworks biedt realtime anomaliedetectie met automatische opschorting van agenten — governance op machinesnelheid voor een dreigingslandschap op machinesnelheid.
Patiëntgegevens wachten niet tot jouw beveiligingsarchitectuur is bijgewerkt
Het Shaw Local-rapport beschrijft een dreigingslandschap dat elke CISO in de zorg al vermoedt, maar misschien nog niet heeft gekwantificeerd: AI heeft cyberaanvallen op ziekenhuizen goedkoper, sneller en moeilijker te detecteren gemaakt. Verouderde beveiligingsarchitecturen die zijn gebouwd voor dreigingen op mensensnelheid kunnen patiëntgegevens niet beschermen tegen geautomatiseerde verkenning, AI-ondersteunde phishing en uitbuiting van de tientallen onderling verbonden applicaties die een ziekenhuis draaiende houden.
De organisaties die patiëntgegevens in deze omgeving beschermen, zijn degenen die elk toegangspunt — menselijke gebruikers, AI-agenten, klinische applicaties en integraties van derden — besturen met doeleinde-gebonden rechten, DLP op infrastructuurniveau en onveranderlijke audittrails die voldoen aan HIPAA-vereisten en bestand zijn tegen onderzoek naar datalekken. Het Kiteworks Private Data Network is hier speciaal voor gebouwd: het beschermen van de meest gevoelige data in de meest complexe omgevingen, met de governance, encryptie en bewijsvoering die de regelgeving en het dreigingslandschap in de zorg vereisen.
Wil je weten hoe Kiteworks kan helpen? Plan vandaag nog een persoonlijke demo.
Veelgestelde vragen
Onder HIPAA is een EHR-leverancier zoals Cerner die elektronische beschermde gezondheidsinformatie creëert, ontvangt, beheert of verzendt namens een gedekte entiteit een business associate en moet een business associate agreement (BAA) afsluiten waarin beveiligingsverplichtingen, toegestane gebruiksvormen en meldingsplichten bij datalekken worden vastgelegd. Wanneer een datalek bij de leverancier ontstaat — zoals bij het OSF-incident — bepaalt de BAA of de leverancier verplicht is de gedekte entiteit tijdig te informeren, forensisch bewijs te bewaren en mee te werken aan het onderzoek naar het datalek. De meldingsplicht onder HIPAA schrijft echter voor dat de gedekte entiteit verantwoordelijk is voor het informeren van de getroffen personen binnen 60 dagen na ontdekking, ongeacht of de leverancier het datalek heeft veroorzaakt. Dit creëert een asymmetrische aansprakelijkheid: het ziekenhuis draagt de meldingsplicht en het risico op handhaving door de OCR, zelfs bij een datalek dat het niet heeft veroorzaakt en mogelijk niet had kunnen detecteren. Zorgorganisaties moeten ervoor zorgen dat BAAs met EHR-leveranciers expliciet afspraken bevatten over responstijdlijnen bij incidenten, het bewaren en toegankelijk maken van audit logs, methoden voor het bepalen van de omvang van het datalek en het recht van de gedekte entiteit op onafhankelijk forensisch onderzoek — bepalingen die in standaard leverancierscontracten vaak ontbreken.
De minimumnorm van HIPAA vereist dat toegang tot beschermde gezondheidsinformatie wordt beperkt tot het minimum dat nodig is voor het beoogde doel. Toegepast op AI-agenten in klinische workflows betekent dit dat elke agent alleen toegang mag hebben tot de specifieke PHI-categorieën die nodig zijn voor zijn gedefinieerde functie — een klinisch beslissingsondersteunend hulpmiddel voor medicatie-interacties heeft bijvoorbeeld geen toegang nodig tot factureringsgegevens of historische diagnoses buiten zijn scope. In de praktijk voldoen de meeste AI-implementaties in de zorg niet aan deze norm omdat ze brede service-accountreferenties of rolgebaseerde rechten gebruiken die zijn ontworpen voor menselijke gebruikers, waardoor AI-agenten toegang krijgen tot veel meer data dan voor een specifieke taak nodig is. De bevinding van het Kiteworks 2026 Forecast Report dat 63% van de organisaties geen doeleinde-beperkingen kan afdwingen voor AI-agenten weerspiegelt deze kloof. Compliance vereist op attributen gebaseerde toegangscontrole die voor elke interactie het toegestane doel van de AI-agent, de gevraagde dataclassificatie en de context van de specifieke taak evalueert — en zo de minimumnorm afdwingt op data layer-niveau in plaats van te vertrouwen op systeemroltoewijzingen die niet per taak veranderen.
De meldingsplicht van HIPAA vereist dat gedekte entiteiten getroffen personen zonder onredelijke vertraging en binnen 60 dagen na ontdekking van een datalek informeren. “Ontdekking” betekent de datum waarop de gedekte entiteit wist of, bij redelijke zorgvuldigheid, had moeten weten van het datalek. De OSF-tijdlijn — toegang door de aanvaller vanaf januari, melding aan het ziekenhuis in september, melding aan patiënten in december — illustreert het tweedelige compliance-probleem dat dit oplevert. Ten eerste: als de negen maanden verblijfstijd een detectiefout weerspiegelt in plaats van het ontbreken van detecteerbare signalen, kan de OCR oordelen dat redelijke zorgvuldigheid het datalek eerder had moeten identificeren, waardoor de 60-dagenklok eerder begint te lopen en de melding in december een overtreding is. Ten tweede: de uitstelbepaling voor wetshandhaving die HIPAA toestaat is tijdgebonden en vereist een formeel verzoek — het schort de onderliggende verplichting van de organisatie niet oneindig op. Zorgorganisaties die te maken hebben met AI-ondersteunde hardnekkige toegang moeten continue gedragsmonitoring met realtime waarschuwingen hanteren: de audittrail die documenteert wanneer afwijkende toegangspatronen voor het eerst optraden, is ook het bewijs dat bepaalt wanneer de 60-dagenklok juridisch gezien is gestart.
Het voorkomen van PHI-lekkage via generatieve AI-platforms vereist DLP-handhaving op vier punten die de meeste ziekenhuisbeveiligingsarchitecturen momenteel niet afdekken. Ten eerste: uitgaande contentinspectie op elk kanaal waarmee personeel met externe AI-platforms werkt — browsergebaseerde AI-tools via bedrijfsnetwerken, API-integraties tussen klinische applicaties en AI-diensten, en e-mailworkflows die naar AI-verwerkingspijplijnen leiden. Ten tweede: handhaving van dataclassificatie die PHI in context herkent — niet alleen op basis van patronen zoals BSN’s, maar ook door te herkennen dat klinische notities, diagnostische codes en behandelomschrijvingen PHI vormen, zelfs zonder gekoppelde namen. Ten derde: inspectie op promptniveau die signaleert wanneer gestructureerde patiëntdata als AI-input wordt ingevoerd, niet alleen wanneer bestanden worden overgedragen. Ten vierde: API-gatewaycontroles voor AI-dienstintegraties die doeleinde-beperkingen afdwingen — zodat elke AI-integratie alleen bepaalde dataclassificaties mag verzenden of ontvangen. Zonder alle vier deze lagen zullen DLP-beleidsmaatregelen die traditionele bestandsoverdracht en MFT-kanalen dekken zichtbare gaten hebben waardoor PHI naar ongecontroleerde externe AI-verwerking kan stromen zonder een enkele waarschuwing of auditrecord te genereren.
FIPS 140-3 is de huidige Amerikaanse federale standaard voor validatie van cryptografische modules en vervangt FIPS 140-2. Het specificeert vereisten voor het ontwerp, de implementatie en het testen van cryptografische modules — niet alleen het gebruikte algoritme, maar de volledige hardware- of softwaremodule die encryptie uitvoert. Voor zorgorganisaties is FIPS 140-3 validatie om drie redenen belangrijk. Ten eerste verwijzen de technische beveiligingsvereisten van HIPAA naar NIST-richtlijnen voor encryptie, en de OCR beschouwt FIPS-gevalideerde encryptie steeds vaker als de juiste standaard voor PHI in rust en onderweg — implementaties die standaardalgoritmen gebruiken maar geen modulevalidatie hebben voldoen mogelijk niet aan de technische verwachtingen van de OCR bij een handhavingsonderzoek. Ten tweede vereist FIPS 140-3 validatie dat de cryptografische implementatie door een derde partij wordt getest, wat bewijskracht biedt die zelfverklaarde encryptie niet kan leveren. Ten derde zorgt klantbeheerde sleutelbeheer — waarbij de zorgorganisatie, niet de leverancier, de encryptiesleutels beheert — ervoor dat PHI ontoegankelijk blijft voor de cloudprovider en incidenten bij de leverancier overleeft zonder patiëntgegevens bloot te stellen. In combinatie met onveranderlijke audittrails vormt FIPS 140-3 gevalideerde encryptie met klantbeheerde sleutels het technische fundament dat de OCR zoekt bij het beoordelen of een gedekte entiteit redelijke zorgvuldigheid heeft betracht om PHI te beschermen.
Aanvullende bronnen
- Blog Post Zero Trust Architectuur: Nooit vertrouwen, altijd verifiëren
- Video Microsoft GCC High: Nadelen die defensie-aannemers richting slimmere voordelen drijven
- Blog Post Hoe je geclassificeerde data beveiligt zodra DSPM het signaleert
- Blog Post Vertrouwen opbouwen in generatieve AI met een Zero Trust-aanpak
- Video De definitieve gids voor veilige opslag van gevoelige data voor IT-leiders