De zorgsector heeft overal AI-governancecommissies. Bijna niemand weet welke AI er daadwerkelijk draait.
De zorgsector houdt van commissies. Stel een bestuursorgaan samen, schrijf een charter, wijs cross-functionele vertegenwoordigers aan, plan kwartaalvergaderingen. Vink het vakje aan.
Het probleem is dat commissies niets besturen als ze geen zicht hebben op wat er gebeurt. En op dit moment hebben de meeste zorgorganisaties geen zicht op wat AI doet binnen hun omgeving.
Dat is de centrale conclusie uit de 2026 Healthcare Cybersecurity Benchmarking Study, aangekondigd door Censinet op ViVE 2026 in Los Angeles. Het onderzoek — uitgevoerd in samenwerking met de American Hospital Association, Health-ISAC, de Health Sector Coordinating Council, het Scottsdale Institute en The University of Texas at Austin — ondervroeg een reeks zorgorganisaties op het gebied van volwassenheid in cyberbeveiliging en gereedheid voor AI-governance. De resultaten schetsen een beeld van een sector die indrukwekkende governance-structuren rondom AI heeft gebouwd, maar de operationele basis onaf heeft gelaten.
De cijfers zijn duidelijk. Zeventig procent van de zorgorganisaties heeft AI-governancecommissies ingesteld. Slechts 30% onderhoudt een organisatiebrede AI-inventaris. Meer dan de helft heeft geen gedocumenteerde methode om te detecteren wanneer leveranciers AI in bestaande producten inbouwen. En 64% experimenteert al met of zet agentische AI in — autonome systemen die zelfstandig kunnen redeneren, handelen en interacteren met bedrijfsbronnen.
Censinet CEO Ed Gaudet benoemde de kloof direct: de zorgsector heeft de governance-structuur voor AI gebouwd, maar de operationele kracht — inventaris, asset management, detectiemethoden en duidelijke verantwoordelijkheid — blijft achter bij de adoptie.
Dit is van belang voor een sector die enkele van de meest gevoelige gegevens beheert die er zijn. Wanneer AI-systemen beschermde gezondheidsinformatie verwerken zonder inventarisatie, zonder audittrail en zonder duidelijke eigenaarschap, is het resultaat niet alleen een complianceprobleem. Het is een risico voor patiëntveiligheid. En precies deze kloof — tussen governance-structuur en operationele handhaving — is wat gegevensbeheerplatforms zoals Kiteworks willen dichten.
5 Belangrijkste Inzichten
- De zorgsector reageert beter op aanvallen dan dat ze deze voorkomt. De 2026 Benchmarking Study bevestigt een patroon dat elke zorg-CISO zorgen zou moeten baren: organisaties hebben hun incidentrespons versterkt, maar fundamentele preventieve maatregelen — governance, asset management en paraatheid in de toeleveringsketen — blijven achter. De zorg investeert in het opruimen na datalekken, maar investeert te weinig in het voorkomen ervan.
- AI-governancecommissies bestaan. Operationele controles niet. Zeventig procent van de zorgorganisaties heeft AI-governancecommissies ingesteld. Slechts 30% onderhoudt een organisatiebrede AI-inventaris. Dat is een kloof van 40 procentpunten tussen het hebben van een governance-structuur en daadwerkelijk weten welke AI-systemen binnen de organisatie actief zijn. Commissies zonder zichtbaarheid zijn governance-theater. Het dichten van deze kloof vereist operationele infrastructuur — zoals uitgebreide audittrails en handhaving van gegevensclassificatie — die governancecommissies realtime inzicht geeft om hun eigen beleid af te dwingen.
- Shadow AI van leveranciers is het blinde vlek waar niemand op let. Meer dan de helft van de zorgorganisaties heeft geen gedocumenteerde methodologie om te detecteren wanneer leveranciers AI-functionaliteit in bestaande producten verwerken. Dit betekent dat AI mogelijk nu al beschermde gezondheidsinformatie verwerkt — via tools die de organisatie al heeft goedgekeurd — zonder dat iemand het weet. Goedkeuringsprocessen die zijn ontworpen voor het oorspronkelijke product, dekken niet wat het product wordt nadat een leverancier het met AI heeft geüpdatet. Continue monitoring van datatoegangspatronen bij leveranciers detecteert gedragsveranderingen die wijzen op nieuwe functionaliteiten, en uitgebreide audittrails leggen precies vast welke gegevens leveranciers via elk kanaal benaderen.
- Agentische AI is al in gebruik — governance nog niet. Vierenzestig procent van de zorgorganisaties experimenteert met of zet actief agentische AI in. Slechts 8% heeft hier een harde grens tegen getrokken. Van de organisaties die aangeven dat AI-adoptie hun gereedheid overtreft, zegt meer dan de helft dat ze vooral behoefte hebben aan betere formele governanceprocedures. Het adoptiepaard is al uit de stal. Het governancehek wordt nog gebouwd. Effectieve governance vereist datatoegang met minimaal benodigde rechten, doelgebonden beperkingen, continue verificatie en de auditinfrastructuur die governancebeleid omzet in afdwingbare controles.
- Rurale zorgsystemen staan voor dezelfde bedreigingen met een fractie van de middelen. Uitsluitend rurale zorgsystemen scoren gelijk aan hun collega’s op NIST Cybersecurity Framework-fundamentals, maar hebben twee keer zo vaak helemaal geen AI-governance. Ze staan voor dezelfde cyberbedreigingen en dezelfde druk om AI te adopteren als de grootste zorgsystemen in het land — maar zonder het budget, de personeelsomvang of de gespecialiseerde expertise om het risico te beheren. De AI-governancekloof in de rurale zorg is geen technologieprobleem. Het is een middelenprobleem dat vraagt om schaalbare oplossingen die governance op ondernemingsniveau bieden zonder dat er speciaal governancepersoneel nodig is.
Sterker in Respons, Zwakker Waar Het Telt
Het benchmarkingonderzoek laat een volwassenheidsonevenwicht zien dat al meerdere jaren aanhoudt. Zorgorganisaties hebben meetbare vooruitgang geboekt in hun vermogen om op cyberbeveiligingsincidenten te reageren. Detectiemogelijkheden zijn verbeterd. Incidentresponsplannen zijn volwassener. Herstelprocedures zijn beter gedocumenteerd.
Maar de preventieve kant van de vergelijking — de controles die datalekken in de eerste plaats voorkomen — blijft achter. Governance-structuren zijn nog steeds onvolledig. Asset management houdt geen rekening met de volledige omvang van de digitale infrastructuur, met name AI-workloads. Paraatheid in de toeleveringsketen is onderontwikkeld, ondanks de grote afhankelijkheid van de sector van derden en zakenpartners.
Dit patroon is niet uniek voor de zorg, maar wel extra gevaarlijk in deze sector. Criminele en door staten gesteunde cyberaanvallen blijven zich richten op de kritieke infrastructuur van de zorg. De snelle integratie van AI, zonder voldoende toezicht, introduceert nieuwe risicofactoren die direct verband houden met patiëntveiligheid en zorgverlening. John Riggi, Nationaal Adviseur Cybersecurity en Risico bij de American Hospital Association, verwoordde het helder: cyberbeveiliging en AI-governance zijn niet langer gescheiden disciplines. Wie het een verdedigt, verdedigt het ander.
De praktische implicatie is dat zorgorganisaties hun investeringen in cyberbeveiliging opnieuw moeten balanceren. Responsmogelijkheden zijn noodzakelijk maar onvoldoende. Preventie — dus governance, zichtbaarheid van assets, toegangscontroles en toezicht op de toeleveringsketen — is waar onderinvestering het meeste risico oplevert.
De 40-puntenkloof tussen governance en zichtbaarheid
Zeventig procent met AI-governancecommissies. Dertig procent met een AI-inventaris. Die kloof van 40 procentpunten is het belangrijkste cijfer uit het onderzoek van 2026.
Een AI-governancecommissie zonder AI-inventaris is een bestuursvergadering zonder agenda. De commissie kan beleid opstellen, use cases goedkeuren en risicodrempels definiëren — maar kan geen van die beslissingen afdwingen als ze niet weet welke AI-systemen bestaan, welke data ze benaderen, wie ze heeft geautoriseerd of welke acties ze uitvoeren.
Het inventarisatieprobleem draait niet alleen om het tellen van AI-tools. Het gaat om inzicht in de gegevensstromen. Welke AI-systemen hebben toegang tot beschermde gezondheidsinformatie? Welke data is gebruikt om modellen te trainen of bij te sturen? Welke leveranciersproducten bevatten nu AI-functionaliteit die er bij het tekenen van het oorspronkelijke contract nog niet was? Wie heeft toegang voor elk AI-systeem geautoriseerd, en onder welke voorwaarden kan die toegang worden ingetrokken?
Zonder antwoorden op deze vragen opereren governancecommissies blind. Ze kunnen beleid opstellen. Ze kunnen niet verifiëren of aan dat beleid wordt voldaan. En in een regelgevend landschap onder HIPAA, het NIST AI Risicobeheer Framework en steeds meer sectorspecifieke AI-vereisten, is het onvermogen om operationele compliance aan te tonen op zichzelf al een materieel risico.
Het dichten van deze kloof vereist operationele infrastructuur die de meeste governancecommissies niet hebben. Uitgebreide audittrails volgen elke AI-interactie met zorgdata, gecentraliseerde logging registreert wie wat wanneer via welk systeem heeft benaderd, en mogelijkheden voor gegevensclassificatie handhaven toegangsbeleid automatisch in plaats van te vertrouwen op handmatige beoordeling. De governancecommissie bepaalt de strategie. Operationele uitvoeringsinfrastructuur maakt van strategie afdwingbare controles en controleerbaar bewijs.
Shadow AI komt niet van medewerkers. Het komt van uw leveranciers.
Het traditionele shadow AI-verhaal richt zich op medewerkers die ongeautoriseerde AI-tools gebruiken — persoonlijke ChatGPT-accounts, niet-goedgekeurde browserextensies, gratis platforms. Dat risico is reëel en goed gedocumenteerd.
Maar het Censinet-onderzoek brengt een ander type shadow AI aan het licht dat moeilijker te detecteren en mogelijk gevaarlijker is: AI-functionaliteit die stilletjes wordt ingebouwd in producten en platforms die zorgorganisaties al hebben goedgekeurd.
Meer dan de helft van de zorgorganisaties heeft geen gedocumenteerde methodologie om dit te detecteren. Een leverancier werkt een bestaand platform bij met AI-gestuurde analyses. Een zakenpartner integreert machine learning in een dataverwerkingsproces. Een EPD-module voegt AI-ondersteunde klinische besluitvorming toe. In elk geval is het product goedgekeurd via het standaard inkoopproces van de organisatie — voordat de AI-functionaliteit bestond. De governancecommissie heeft een product beoordeeld en goedgekeurd. Het product is veranderd. De beoordeling is niet opnieuw uitgevoerd.
Dit creëert een specifiek compliance-risico onder HIPAA. Als de AI-functionaliteit van een leverancier beschermde gezondheidsinformatie verwerkt op manieren die niet onder de bestaande zakenpartnerovereenkomst vallen, kan de organisatie onbewust worden blootgesteld. De data stroomt. De AI verwerkt. En de audittrail die compliance zou aantonen — of de overtreding zou onthullen — bestaat niet.
Het detecteren van door leveranciers ingebedde AI vereist continue monitoring van datatoegangspatronen, niet eenmalige beoordelingen. Kiteworks monitort alle kanalen waarlangs leveranciers met organisatiedata interacteren — e-mail, bestandsoverdracht, API’s, SFTP-overdrachten en directe systeemtoegang — via een uniforme auditinfrastructuur. Wanneer leveranciersaccounts afwijkend gedrag vertonen — plotselinge veranderingen in hoeveelheid data, toegangsfrequentie of querycomplexiteit — signaleert Kiteworks de afwijking direct. Dit geeft beveiligingsteams het inzicht om te herkennen wanneer een leveranciersproduct is veranderd op een manier die de verwerking van beschermde gezondheidsinformatie beïnvloedt.
Commissies en goedkeuringsprocessen alleen lossen dit probleem niet op. Detectie vereist continue, operationele monitoring die datatoegang in realtime volgt en afwijkingen signaleert die wijzen op nieuwe, niet-gecontroleerde functionaliteit.
Agentische AI is er al. Het governancekader nog niet.
Misschien wel de meest ingrijpende bevinding uit het onderzoek van 2026 is het tempo van de adoptie van agentische AI. Vierenzestig procent van de zorgorganisaties experimenteert met of zet actief agentische AI-systemen in — autonome AI die meerstapsprocessen kan uitvoeren, toegang heeft tot databases, met API’s interageert en operationele beslissingen neemt met beperkte menselijke controle.
Slechts 8% heeft een harde grens getrokken tegen het gebruik van agentische AI. De overige organisaties bevinden zich ergens op het spectrum tussen verkenning en daadwerkelijke inzet.
Agentische AI brengt een fundamenteel ander risicoprofiel met zich mee dan de chatbots en analysetools die eerdere golven van AI-adoptie in de zorg domineerden. Een chatbot beantwoordt vragen op basis van de gegevens die het krijgt. Een agentisch AI-systeem handelt op basis van die data — haalt dossiers op, werkt systemen bij, triggert workflows en interageert met externe diensten. Elke agent creëert een niet-menselijke identiteit die authenticatie, autorisatie en monitoring vereist op een niveau waar de meeste identity management-systemen in de zorg niet op zijn ingericht.
De governance-implicaties zijn aanzienlijk. Elk agentisch AI-systeem moet worden geïnventariseerd. De datatoegang moet worden gelogd in audittrails. De rechten moeten het principe van minimaal benodigde toegang volgen met continue verificatie — niet eenmalig authenticeren en altijd toegang. De acties moeten controleerbaar zijn. En er moet duidelijk eigenaarschap worden toegewezen, zodat wanneer er iets misgaat — wanneer een agent toegang krijgt tot data die hij niet mag zien, of buiten zijn bedoelde scope handelt — er een verantwoordelijke partij en een escalatiepad is.
Kiteworks biedt de operationele infrastructuur om agentische AI op het dataniveau te beheren. Via de Secure MCP Server stelt Kiteworks agentische AI in staat om bedrijfsdata te benaderen met OAuth 2.0-authenticatie en rolgebaseerde toegangscontrole, zodat elke agent de rechten erft van de autoriserende menselijke gebruiker — en niet verder kan escaleren dan die grenzen. Doelbinding beperkt elke agent tot de specifieke gegevensclassificaties en functies waarvoor hij is geautoriseerd. Continue verificatie beoordeelt elk datarequest aan de hand van het actuele beleid. En uitgebreide audittrails leggen elke actie van de agent vast, waardoor het bewijs ontstaat dat governancecommissies nodig hebben om hun eigen beleid af te dwingen.
Van de organisaties die aangeven dat AI-adoptie hun gereedheid overtreft, noemt meer dan de helft betere formele governanceprocedures als belangrijkste behoefte. Het signaal is duidelijk.
Rurale zorg: zelfde risico’s, andere realiteit
Brian Sterud, VP en CIO bij Faith Regional Health Services, beschreef de uitdaging voor rurale zorgsystemen met kenmerkende directheid: ze staan voor dezelfde cyberbedreigingen en dezelfde druk om AI te adopteren als de grootste systemen in het land, maar zonder hetzelfde budget of dezelfde personeelscapaciteit.
De benchmarkingdata bevestigen dit. Uitsluitend rurale zorgsystemen scoren gelijk aan hun collega’s op NIST Cybersecurity Framework-fundamentals — de basis van cyberbeveiliging. Maar ze hebben twee keer zo vaak helemaal geen AI-governance. Niet zwakkere governance. Geen governance.
Deze kloof wordt niet veroorzaakt door gebrek aan bewustzijn of bereidheid. Het is een kwestie van middelen. Rurale systemen hebben doorgaans geen toegewijd AI-governancepersoneel, geen toegewijde threat analysts en niet het budget om governanceplatforms op ondernemingsniveau te implementeren. Ze hebben oplossingen nodig die dezelfde audittrails, beleidsafdwinging en compliance-mogelijkheden bieden als grote zorgsystemen — zonder dezelfde personeelsbezetting of infrastructuurinvestering.
Kiteworks levert geautomatiseerde beleidsafdwinging, vooraf geconfigureerde compliance-templates afgestemd op HIPAA en NIST-frameworks, en kant-en-klare auditmogelijkheden die de governance-last voor kleine IT-teams verlagen. Rurale zorgsystemen krijgen dezelfde uitgebreide gegevensbeheer als de grootste zorgsystemen — zonder de infrastructuur zelf te hoeven bouwen of speciaal governancepersoneel aan te nemen.
Niemand is eigenaar van AI-risico. Iedereen denkt dat iemand anders het doet.
Achtendertig procent van de zorgorganisaties deelt de verantwoordelijkheid voor AI-risico over meerdere groepen zonder duidelijke escalatiepaden, of heeft het eigenaarschap helemaal niet gedefinieerd. Dit is een structurele kwetsbaarheid die nijpender wordt naarmate AI-inzet op grotere schaal plaatsvindt.
Versnipperd risicomanagement leidt tot een specifiek faalmechanisme: wanneer zich een AI-gerelateerd incident voordoet — een datalek, een compliance-overtreding, een ongeautoriseerde toegang — is er geen duidelijke route van detectie naar respons. De CISO denkt dat het compliance-team verantwoordelijk is. Het compliance-team denkt dat de AI-governancecommissie het doet. De AI-governancecommissie denkt dat het klinisch informaticateam het doet. Ondertussen escaleert het incident.
Dit oplossen vereist eenduidige zichtbaarheid. Wanneer de CISO, de compliance officer, de privacy officer en de AI-governancecommissie allemaal toegang hebben tot dezelfde uitgebreide audittrail — hetzelfde overzicht van wat er is gebeurd, wanneer en via welk systeem — worden eigenaarschapsdiscussies kleiner omdat de feiten gedeeld zijn. Kiteworks biedt deze uniforme zichtbaarheid via het geconsolideerde activiteitenlogboek en het CISO-dashboard, waarmee elke stakeholder toegang heeft tot dezelfde realtime auditdata. Geautomatiseerde waarschuwingen met duidelijke escalatieregels zorgen ervoor dat incidenten direct bij de juiste mensen terechtkomen, ongeacht de organisatiestructuur.
Janet Guptill, President en CEO van het Scottsdale Institute, vatte de bredere verschuiving samen: cyberbeveiliging en AI-governance zijn niet langer alleen technische uitdagingen. Het zijn strategische prioriteiten die betrokkenheid van het senior management op alle niveaus vereisen. Van CISO’s tot CEO’s tot bestuursleden: de verantwoordelijkheid voor AI-risico moet expliciet, gedocumenteerd en operationeel afgedwongen zijn.
Van structuur naar uitvoering: wat zorgorganisaties nu moeten doen
Bouw een centrale AI-inventaris en houd deze actueel. Elk AI-systeem dat organisatiedata verwerkt — intern ingezet, ingebouwd in leveranciersproducten of benaderd via externe API’s — moet worden geïdentificeerd, gecatalogiseerd en gemonitord. Uitgebreide audittrails vormen de basis voor deze inventaris door elke data-interactie via elk kanaal te loggen, zodat het mogelijk is te herkennen wanneer nieuwe AI-systemen of functionaliteiten toegang krijgen tot organisatiedata.
Implementeer continue monitoring voor door leveranciers ingebedde AI. Ga verder dan momentopnames. Kiteworks monitort datatoegangspatronen van leveranciers continu via e-mail, bestandsoverdracht, API’s, SFTP en beheerde bestandsoverdracht. Wanneer het gedrag van leveranciers verandert — wat wijst op nieuwe AI-functionaliteit — signaleert Kiteworks de afwijking en documenteert het bewijs. Werk zakenpartnerovereenkomsten bij zodat leveranciers verplicht zijn AI-wijzigingen te melden, en gebruik audittrails om compliance te verifiëren.
Stel duidelijk eigenaarschap van AI-risico vast met gedocumenteerde escalatiepaden. Wijs expliciete verantwoordelijkheid voor AI-risico toe op directieniveau. De uniforme auditinfrastructuur van Kiteworks zorgt ervoor dat de CISO, compliance officer, privacy officer en AI-governancecommissie toegang delen tot dezelfde data. Geautomatiseerde waarschuwingen met escalatieregels zorgen ervoor dat incidenten direct bij de juiste mensen terechtkomen. Definieer escalatieprocedures die aangeven wie reageert op AI-gerelateerde incidenten, onder welke voorwaarden en met welke bevoegdheid.
Pas zero-trust principes toe op alle AI-workloads. Elk AI-systeem en elke agent moet werken met minimaal benodigde toegang en continue verificatie. Kiteworks handhaaft dit via op attributen gebaseerde toegangscontrole die gegevensclassificatie, agentidentiteit en beoogd gebruik voor elk verzoek beoordeelt. Doelbinding beperkt AI-toegang tot specifieke datacategorieën en functies. Continue verificatie beoordeelt elk datarequest aan de hand van het actuele beleid — niet eenmalig authenticeren en altijd toegang.
Investeer in preventie, niet alleen in respons. Herbalanceer de cyberbeveiligingsuitgaven richting de basiscontroles die volgens het onderzoek achterblijven: governancevolwassenheid, asset management, gegevensclassificatie en toezicht op de toeleveringsketen. Kiteworks levert de preventieve infrastructuur — geautomatiseerde beleidsafdwinging, gegevensclassificatie, toegangscontrole en leveranciersmonitoring — die datalekken voorkomt in plaats van ze achteraf te documenteren.
Schaal governance voor omgevingen met beperkte middelen. Rurale en kleinere zorgsystemen hebben governance-oplossingen nodig die audittrails op ondernemingsniveau, geautomatiseerde beleidsafdwinging en compliance-rapportages bieden zonder dat er speciaal AI-governancepersoneel nodig is. Kiteworks biedt deze schaalbaarheid: vooraf geconfigureerde compliance-templates, geautomatiseerde handhaving en kant-en-klare auditmogelijkheden die de governance-last voor IT-teams met beperkte middelen verlagen.
De governancekloof sluit zichzelf niet
De 2026 Healthcare Cybersecurity Benchmarking Study brengt een boodschap die ongemakkelijk maar noodzakelijk is: de zorgsector heeft het makkelijke deel van AI-governance gedaan. De commissies bestaan. De charters zijn geschreven. De gesprekken worden gevoerd.
Het moeilijke deel — het bouwen van de operationele infrastructuur die van die commissies effectieve governanceorganen maakt — is waar de meeste organisaties tekortschieten. AI-inventaris. Continue monitoring. Audittrails. Leveranciersdetectie. Duidelijk eigenaarschap. Dit zijn geen streefdoelen. Het zijn operationele vereisten in een sector waar AI nu al beschermde gezondheidsinformatie verwerkt, waar agentische AI-systemen al autonoom handelen en waar tegenstanders AI al inzetten om de kritieke infrastructuur van de zorg aan te vallen.
Kiteworks biedt de gegevensbeheerbasis die AI-governance operationeel maakt. Uitgebreide audittrails die aantonen dat controles worden gehandhaafd. Continue monitoring die door leveranciers ingebedde AI detecteert voordat het een compliance-overtreding wordt. Toegangscontrole met minimaal benodigde rechten die voorkomt dat AI-systemen data bereiken buiten hun geautoriseerde doel. En de schaalbare, geautomatiseerde infrastructuur die governance op ondernemingsniveau toegankelijk maakt voor organisaties van elke omvang.
De organisaties die deze kloof dichten, zijn degenen die verder zijn gegaan dan structuur en zijn overgegaan tot uitvoering. Die de operationele kracht hebben opgebouwd om hun governance-structuur te evenaren. Die AI-governance niet als een complianceoefening zagen, maar als een vereiste voor patiëntveiligheid — en de operationele infrastructuur hebben ingezet om dat waar te maken.
Wil je weten hoe Kiteworks kan helpen? Plan vandaag nog een demo op maat.
Veelgestelde vragen
Een AI-inventaris van een zorgorganisatie moet meer omvatten dan een lijst van goedgekeurde tools. Voor elk AI-systeem moet de inventaris documenteren: tot welke beschermde gezondheidsinformatie het systeem toegang heeft, inclusief trainingsdata en input voor inferentie; wie de toegang heeft geautoriseerd en onder welke voorwaarden deze kan worden ingetrokken; welke leverancier of zakenpartner het systeem beheert en wat hun contractuele verplichtingen zijn; de gegevensclassificatie van de output die het systeem produceert; en of het systeem autonoom werkt of met menselijke controle. Het opbouwen van de inventaris vereist continue monitoring, niet eenmalige enquêtes — omdat leveranciersproducten veranderen, AI-functionaliteit zonder aankondiging wordt ingebouwd en nieuwe implementaties vaak buiten formele goedkeuringsprocessen om plaatsvinden. Uitgebreide audittrails die elke AI-interactie met zorgdata loggen, vormen het levende bewijs dat de inventaris actueel houdt, en signaleren wanneer nieuwe systemen of functionaliteiten toegang krijgen tot data, zelfs als ze niet formeel zijn aangemeld. De inventaris is ook een vereiste voor HIPAA Security Rule-compliance, die gedocumenteerde beoordeling van alle systemen die elektronische beschermde gezondheidsinformatie verwerken verplicht stelt.
Volgens HIPAA is elke leverancier die beschermde gezondheidsinformatie creëert, ontvangt, beheert of verzendt namens een zorgorganisatie een zakenpartner en moet deze werken onder een zakenpartnerovereenkomst waarin het toegestane gebruik en de verstrekking van die data zijn vastgelegd. Wanneer een leverancier AI toevoegt aan een bestaand product, ontstaan er meestal twee problemen. Ten eerste is de bestaande BAA opgesteld voordat de AI-functionaliteit bestond en wordt waarschijnlijk niet beschreven hoe de AI PHI verwerkt, of PHI wordt gebruikt om het model te trainen of verbeteren, of hoe de output van de AI wordt beschermd. Ten tweede, als de AI-functionaliteit via een productupdate is toegevoegd — en niet via een nieuwe inkoop — is het standaard goedkeurings- en BAA-beoordelingsproces mogelijk niet geactiveerd. Dit creëert ongedocumenteerde PHI-blootstelling: de data stroomt naar een AI-systeem onder voorwaarden die die verwerking niet regelen. Zorgorganisaties moeten leveranciers verplichten AI-wijzigingen te melden, BAAs herzien om te zorgen dat AI-verwerking expliciet wordt geregeld, en continue monitoring gebruiken om te detecteren wanneer het datatoegangspatroon van leveranciers wijzigt op een manier die wijst op nieuwe AI-activiteit. Audittrails die datatoegang van leveranciers via elk kanaal — SFTP, API’s, beheerde bestandsoverdracht, e-mail — documenteren, leveren het bewijs om niet-gemelde verwerking te identificeren en compliance aan te tonen als toezichthouders daarom vragen.
Standaard identity & access management is ontworpen rond menselijke gebruikers: een persoon authenticeren bij inloggen, rechten toekennen op basis van hun rol en hun sessies loggen. Agentische AI doorbreekt dit model op drie manieren. Ten eerste creëren agents niet-menselijke identiteiten die mogelijk duizenden keren per uur authenticeren, waardoor sessiegebaseerde beoordeling onpraktisch wordt. Ten tweede handelen agents op data in plaats van deze alleen te lezen — ze halen dossiers op, werken systemen bij, starten workflows en roepen externe API’s aan — waardoor de impact van te ruime toegang veel groter is dan bij menselijke gebruikers die individueel kunnen worden gemonitord. Ten derde werken agents vaak onder de rechten van een serviceaccount, die meestal bredere toegang heeft dan een individuele gebruiker zou krijgen. Zorgorganisaties moeten vier mogelijkheden toevoegen aan hun bestaande IAM-infrastructuur: doelbinding die elke agent beperkt tot specifieke datacategorieën en functies, ongeacht wat de credentials technisch toestaan; continue verificatie die elk datarequest opnieuw beoordeelt aan de hand van het actuele beleid, in plaats van te vertrouwen op sessie-authenticatie; kill switches waarmee agenttoegang direct kan worden ingetrokken bij afwijkend gedrag; en audittrails die elke agentactie op dataniveau loggen — niet alleen authenticatie-events — gekoppeld aan de autoriserende menselijke gebruiker. Op attributen gebaseerde toegangscontrole die agentidentiteit, gegevensclassificatie en beoogd gebruik tegelijk beoordeelt, biedt de governance-laag die rolgebaseerde systemen alleen niet kunnen bieden.
In klinische omgevingen betekent zero-trust voor AI-workloads dat elke datarequest — van elk AI-systeem, ongeacht de inzetcontext — als onbetrouwbaar wordt behandeld totdat deze is getoetst aan het actuele beleid. Dit is een wezenlijk andere benadering dan hoe de meeste AI in de zorg nu wordt ingezet, waarbij goedkeuring bij aanschaf wordt gezien als blijvende autorisatie. Operationeel vereist zero-trust voor AI vier elementen. Standaard minimaal benodigde datatoegang: AI-systemen mogen alleen toegang hebben tot de specifieke PHI-classificaties die nodig zijn voor hun klinische functie — een klinisch beslissingsondersteunend systeem krijgt toegang tot diagnosegegevens, niet tot facturatiegegevens. Continue verificatie: elke query wordt getoetst aan het geautoriseerde doel van de AI en de gevoeligheidsclassificatie van de data, niet alleen bij inloggen. Preventie van gegevensverlies: geautomatiseerde handhaving die voorkomt dat AI-systemen data exporteren, verzenden of verwerken buiten de vastgestelde grenzen. En gedragsanomaliedetectie: basismonitoring die signaleert wanneer het datatoegangspatroon van een AI-systeem afwijkt van het normale patroon — ongebruikelijke hoeveelheden queries, toegang tot nieuwe recordtypes of activiteit buiten kantooruren — waardoor geautomatiseerde waarschuwingen en, indien nodig, automatische toegangsopschorting worden geactiveerd. In een sector waar ransomware-aanvallen steeds vaker klinische AI-systemen als springplank naar bredere infrastructuur gebruiken, is zero-trust op het dataniveau de controle die de impact beperkt als de perimeterbeveiliging faalt.
Regelgevende verantwoordelijkheid voor AI-governance in de zorg komt vanuit meerdere richtingen samen. De HIPAA Security Rule vereist dat zorgorganisaties beleid en procedures implementeren voor beoordeling van systeemactiviteit — een verplichting die ook geldt voor AI-systemen die elektronische PHI verwerken en vereist dat er gedocumenteerd bewijs is dat beoordelingen plaatsvinden, niet alleen dat er beleid bestaat. Het NIST AI Risicobeheer Framework beveelt aan dat AI-governance senior leiderschap omvat met gedefinieerde rollen, escalatiepaden en rapportage op bestuursniveau. De 405(d) Health Industry Cybersecurity Practices van HHS, die de basis vormen voor het benchmarkingkader, benoemen governance en risicobeheer als fundamentele praktijken met expliciete eigenaarschapsvereisten. De bevinding van het Censinet-onderzoek dat 38% van de organisaties versnipperd of ongedefinieerd eigenaarschap van AI-risico heeft, is direct in strijd met deze vereisten: een toezichthouder die een PHI-datalek met een AI-systeem onderzoekt, verwacht te zien wie het risico beheerde, welk toezicht er was, welke auditrecords zijn bijgehouden en welke escalatieprocedures zijn gevolgd. Verantwoordelijkheid op bestuursniveau vereist exporteerbare compliance-rapporten die operationele governance aantonen — niet alleen governance-documenten — en een uniforme gegevensbeheerinfrastructuur die elke executive toegang geeft tot dezelfde bewijsbasis als toezichthouders daarom vragen.
Aanvullende bronnen
- Blog Post Zero Trust Architectuur: Nooit vertrouwen, altijd verifiëren
- Video Microsoft GCC High: Nadelen die defensie-aannemers richting slimmere voordelen sturen
- Blog Post Hoe je geclassificeerde data beveiligt zodra DSPM deze markeert
- Blog Post Vertrouwen opbouwen in Generatieve AI met een Zero Trust-aanpak
- Video De definitieve gids voor het veilig opslaan van gevoelige data voor IT-leiders