NYDFS Part 500 en AI: Wat de New Yorkse cyberbeveiligingsverordening vereist op het gebied van agentbeheer
Financiële instellingen in New York zetten AI-agenten in voor klantrapportages, acceptatie, schadeafhandeling, fraudedetectie en nalevingsworkflows. De meeste van deze workflows hebben toegang tot niet-openbare informatie – de categorie gevoelige klantgegevens die 23 NYCRR Part 500 beoogt te beschermen. Dat plaatst AI-agent-inzet volledig binnen de nalevingsgrenzen die het New York Department of Financial Services sinds de inwerkingtreding van de Second Amendment in november 2023 steeds strenger handhaaft.
In oktober 2024 maakte NYDFS haar standpunt expliciet. Een branchebrief van Superintendent Adrienne Harris verduidelijkte dat de Cybersecurity Regulation nu al vereist dat onderworpen entiteiten AI-gerelateerde cyberbeveiligingsrisico’s beoordelen en aanpakken – inclusief risico’s van hun eigen AI-inzet. Er was geen nieuwe regelgeving nodig. Het bestaande Part 500-kader is direct van toepassing op AI-agent-workflows die niet-openbare informatie verwerken.
Deze post legt uit wat Part 500 vereist voor AI-ondersteunde workflows, wat de richtlijnen van oktober 2024 toevoegen, waar AI-inzet tot nalevingsgaten leidt en hoe onderworpen entiteiten een verdedigbare beveiligingsstatus kunnen opbouwen voor AI-agenttoegang tot niet-openbare informatie.
Samenvatting voor het management
Belangrijkste idee: De kernvereisten van NYDFS Part 500 – risicobeoordeling, toegangscontroles, audittrail, beheer van derde partijen en incidentrespons – zijn van toepassing op AI-agent-inzet die toegang heeft tot niet-openbare informatie. De branchebrief van NYDFS van oktober 2024 bevestigde deze interpretatie en maakte duidelijk dat onderworpen entiteiten AI-specifieke risico’s moeten opnemen in elk onderdeel van hun cyberbeveiligingsprogramma. Onderworpen entiteiten die AI inzetten op workflows met NPI zonder hun risicobeoordelingen, toegangscontrolebeleid en leveranciersbeheer aan te passen, voldoen vandaag de dag niet aan Part 500.
Waarom dit relevant is: NYDFS heeft laten zien dat ze bereid zijn om boetes van miljoenen dollars op te leggen en individuele bestuurders aan te pakken. De Second Amendment introduceerde persoonlijke aansprakelijkheid op het hoogste bestuursniveau – de CISO en de hoogste leidinggevende moeten jaarlijks een certificering van materiële naleving ondertekenen. Elke onderworpen entiteit waarvan AI-agenten toegang hebben tot NPI zonder de vereiste toegangscontroles, audittrail en risicobeoordeling van Part 500, certificeert naleving van controles die niet bestaan.
Belangrijkste punten
- NYDFS Part 500 is al van toepassing op AI-agenttoegang tot niet-openbare informatie – de branchebrief van oktober 2024 bevestigde dit zonder nieuwe vereisten toe te voegen. Onderworpen entiteiten kunnen AI-governance niet als een toekomstige nalevingsverplichting beschouwen. Het bestaande kader van de Cybersecurity Regulation – risicobeoordeling, toegangscontroles, audittrail – geldt nu voor AI-systemen, en NYDFS-examinatoren toetsen daar ook op.
- Risicobeoordelingen moeten worden bijgewerkt om specifiek AI-gerelateerde risico’s te adresseren. De risicobeoordelingsvereiste van Part 500 (Sectie 500.9) verplicht tot periodieke updates wanneer informatiesystemen of bedrijfsprocessen veranderen. Het inzetten van AI-agenten op NPI-workflows is een materiële wijziging. Risicobeoordelingen die dateren van vóór de AI-inzet van een organisatie – of die AI alleen in algemene termen behandelen – voldoen niet aan deze vereiste.
- Toegangscontroles voor AI-agenten moeten specifiek inspelen op het dreigingsbeeld van AI-versterkte aanvallen. De richtlijn van oktober 2024 benadrukte dat MFA-methoden die kwetsbaar zijn voor AI-versterkte deepfakes – SMS, spraak- en video-authenticatie – onvoldoende zijn om NPI te beschermen in een AI-omgeving. Toegangscontroles voor zowel menselijke gebruikers als AI-agenten moeten bestand zijn tegen door AI gemanipuleerde authenticatie-aanvallen.
- Derde AI-leveranciers vallen onder dezelfde leveranciersbeheer-verplichtingen als elke andere dienstverlener die NPI verwerkt. Als de infrastructuur van een AI-leverancier NPI verwerkt namens een onderworpen entiteit, geldt die leverancier als derde dienstverlener onder Part 500 en moet deze voldoen aan de minimale cyberbeveiligingsstandaarden van Sectie 500.11. Onderworpen entiteiten kunnen hun Part 500-naleving niet uitbesteden aan de verklaringen van een AI-leverancier.
- Jaarlijkse nalevingscertificeringen moeten de feitelijke AI-governancecontroles weerspiegelen, niet alleen de beoogde. De Second Amendment vereist dat de CISO en de hoogste leidinggevende jaarlijks materiële naleving certificeren. Elke onderworpen entiteit waarvan AI-agenten toegang hebben tot NPI zonder de toegangscontroles, audittrail en risicobeoordeling die Part 500 vereist, certificeert naleving van controles die niet bestaan – wat op zichzelf al een handhavingsrisico vormt.
Wat NYDFS Part 500 vereist voor AI-ondersteunde workflows
Part 500 is een cyberbeveiligingsregeling, geen kader voor archivering of openbaarmaking. De kernvereisten bepalen waartoe het cyberbeveiligingsprogramma van een onderworpen entiteit in staat moet zijn: de vertrouwelijkheid, integriteit en beschikbaarheid van informatiesystemen beschermen; cyberbeveiligingsincidenten detecteren en erop reageren; en governance op het hoogste leiderschapsniveau aantonen. Elk van deze vereisten is direct van toepassing op AI-agent-inzet die interacteert met niet-openbare informatie.
Risicobeoordeling (Sectie 500.9)
Part 500 vereist dat onderworpen entiteiten periodieke risicobeoordelingen uitvoeren die cyberbeveiligingsrisico’s voor NPI identificeren en beoordelen, bijgewerkt wanneer informatiesystemen of bedrijfsprocessen materieel veranderen. De branchebrief van oktober 2024 specificeerde dat risicobeoordelingen drie AI-specifieke categorieën moeten adresseren: het eigen AI-gebruik van de entiteit; AI-technologieën van derde partijen; en kwetsbaarheden van AI-toepassingen die de vertrouwelijkheid, integriteit of beschikbaarheid van NPI kunnen aantasten. Een AI-inzet die niet specifiek is geëvalueerd in de actuele risicobeoordeling is een niet-beoordeeld risico – een directe tekortkoming onder Sectie 500.9, ongeacht hoe goed het AI-systeem operationeel presteert.
Toegangscontroles (Sectie 500.7)
Part 500 vereist dat onderworpen entiteiten toegangscontroles implementeren, inclusief multi-factor authenticatie, om NPI-toegang te beperken tot geautoriseerde gebruikers. Voor AI-agenten heeft dit twee dimensies. Ten eerste moeten agenten worden beheerst door controles die NPI-toegang beperken tot geautoriseerde workflows en operaties – geen enkele agent mag bredere NPI-toegang hebben dan zijn specifieke taak vereist. Ten tweede moeten authenticatiemechanismen die NPI-systemen beschermen bestand zijn tegen AI-versterkte aanvallen. De richtlijn van oktober 2024 wees expliciet op het risico dat deepfakes SMS, spraak- en video-authenticatie kunnen omzeilen, en droeg onderworpen entiteiten op om phishing-resistente methoden te gebruiken die niet kunnen worden geïmiteerd door AI-gegenereerde media. Vanaf november 2025 is multi-factor authenticatie verplicht voor alle gebruikers die toegang hebben tot NPI – een vereiste die zich uitstrekt tot de systemen en paden waarlangs AI-agenten NPI bereiken.
Audittrailvereisten (Sectie 500.6)
Part 500 vereist dat onderworpen entiteiten audittrail bijhouden die is ontworpen om cyberbeveiligingsincidenten te detecteren en erop te reageren. Voor AI-agent-inzet moet de audittrail vastleggen welke NPI is benaderd, door welke agent of systeem, onder welke autorisatie en wanneer – op operationeel niveau, voldoende om incidentdetectie en forensisch onderzoek te ondersteunen. Standaard API-call logs en LLM-inferentielogs voldoen niet aan deze vereiste: zij registreren systeemevenementen, niet de NPI-specifieke toegangsdata die Part 500 eist. Bewijsstukken ter ondersteuning van naleving moeten vijf jaar worden bewaard en op verzoek aan NYDFS kunnen worden overlegd.
Beheer van derde dienstverleners (Sectie 500.11)
Part 500 vereist dat onderworpen entiteiten schriftelijk beleid voeren voor derde dienstverleners die NPI benaderen, inclusief minimale cyberbeveiligingsstandaarden en voortdurende zorgvuldigheid. AI-leveranciers waarvan de infrastructuur NPI verwerkt – modelhostingproviders, API-gatewaybeheerders, vector database-leveranciers – zijn derde dienstverleners onder Part 500. De richtlijn van oktober 2024 voegde hieraan toe: zorgvuldigheid moet evalueren hoe AI-gerelateerde dreigingen bij de leverancier de onderworpen entiteit kunnen raken, en contracten moeten eisen dat leveranciers AI-gerelateerde cyberbeveiligingsincidenten melden. Een entiteit die haar AI-leveranciers niet heeft beoordeeld onder het Sectie 500.11-kader, heeft een nalevingsgat.
Incidentrespons (Sectie 500.16)
Part 500 vereist een incidentresponsplan dat cyberbeveiligingsincidenten kan adresseren. De richtlijn van oktober 2024 specificeerde dat deze plannen moeten zijn ontworpen om AI-gerelateerde cyberbeveiligingsincidenten te adresseren – inclusief AI-versterkte aanvallen en incidenten waarbij AI-agenten toegang krijgen tot of blootstelling veroorzaken van NPI. Kwalificerende cyberbeveiligingsincidenten moeten binnen 72 uur aan NYDFS worden gemeld. Een AI-agent die zonder autorisatie toegang krijgt tot NPI, of wordt gecompromitteerd via prompt injection of AI-versterkte social engineering, is een cyberbeveiligingsincident onder Part 500. Als het incidentresponsplan niet beschrijft hoe zo’n incident te detecteren, te beheersen en te melden, is het plan onvoldoende.
Welke Data Compliance Standards zijn relevant?
Lees nu
Waar AI-inzet leidt tot Part 500-nalevingsgaten
De nalevingsgaten onder Part 500 die ontstaan door AI-agent-inzet volgen een consistent patroon bij onderworpen entiteiten. Het zijn geen intentiefouten – de meeste organisaties die AI-agenten inzetten begrijpen dat ze gereguleerd zijn. Het zijn architectuurfouten: AI-inzet gericht op operationele capaciteit zonder de cyberbeveiligingscomponenten die Part 500 vereist.
Risicobeoordelingen die de AI-omgeving niet weerspiegelen
De meeste onderworpen entiteiten voerden hun actuele risicobeoordeling uit voordat AI-agenten onderdeel werden van hun processen, of werkten deze slechts in algemene termen bij toen AI werd ingezet. Part 500 vereist dat risicobeoordelingen de feitelijke informatiesystemen in gebruik weerspiegelen. Een beoordeling die “cloudservices” als risicocategorie noemt, maar AI-agenten die NPI benaderen, de specifieke kwetsbaarheden die zij introduceren of de afhankelijkheden van leveranciers niet benoemt, voldoet niet aan Sectie 500.9 voor de huidige situatie. NYDFS-examinatoren zullen de ingezette AI-systemen vergelijken met de risicobeoordeling – en verschillen zijn bevindingen.
Toegangscontroles ontworpen voor mensen, niet voor agenten
De meeste onderworpen entiteiten hebben multi-factor authenticatie en toegangscontroles geïmplementeerd voor menselijke gebruikers. AI-agenten omzeilen deze doorgaans via service-accounts of API-sleutels met brede NPI-toegang, zonder MFA-uitdaging op workflow-niveau en zonder operationele afbakening. Deze architectuur voldoet noch aan de toegangscontrolevereiste voor de NPI-toegang van de agent, noch aan de aangescherpte standaard voor authenticatiemechanismen die bestand zijn tegen AI-versterkte deepfake-aanvallen. Het behandelt AI-agenten als vertrouwde interne processen in plaats van als NPI-gebruikers die onderworpen zijn aan de toegangscontrolevereisten van Part 500.
Leveranciersbeheer dat stopt bij het contract
Veel onderworpen entiteiten hebben AI-leverancierscontracten met standaard cyberbeveiligingsbepalingen, maar hebben niet de inhoudelijke beoordeling uitgevoerd die Sectie 500.11 en de richtlijn van oktober 2024 vereisen. Een leverancierscontract met een generieke beveiligingsgarantie – zonder te beoordelen hoe de AI-infrastructuur van de leverancier NPI beschermt tijdens modelinference, en zonder AI-specifieke incidentmeldingsbepalingen – voldoet niet aan de vereisten voor derde partijen van Part 500.
Beste practices voor NYDFS Part 500-conforme AI-agent-governance
1. Voer een AI-specifieke update van de risicobeoordeling uit
Werk de Part 500-risicobeoordeling bij om AI-inzet specifiek te adresseren: inventariseer elke AI-agent of systeem dat NPI benadert, beoordeel de cyberbeveiligingsrisico’s die elk introduceert (leveranciersafhankelijkheden, authenticatiekwetsbaarheden, NPI-blootstelling bij compromittering) en documenteer de bestaande of geplande controles. Dit is een update van de kernrisicobeoordeling die het hele cyberbeveiligingsprogramma aanstuurt – en moet zijn afgerond vóór de volgende jaarlijkse certificeringscyclus.
2. Breid toegangscontroles uit naar AI-agent-workflows op operationeel niveau
Implementeer toegangscontroles die AI-agent NPI-toegang per operatie reguleren, niet alleen per sessie. Elke agentworkflow moet werken onder een unieke identiteitscredential die is afgebakend tot de specifieke benodigde NPI, waarbij toegang wordt geëvalueerd op basis van het geautoriseerde profiel van de agent en de NPI-classificatie van de opgevraagde gegevens. Authenticatiemechanismen die NPI-systemen beschermen, moeten phishing-resistente methoden gebruiken die niet kunnen worden geïmiteerd door AI-deepfakes – vermijd SMS-, spraak- en videofactoren die NYDFS expliciet als onvoldoende heeft aangemerkt in een AI-dreigingsomgeving.
3. Bouw AI-specifieke audittrail die incidentdetectie en forensisch onderzoek ondersteunt
Implementeer operationeel niveau auditlogging voor AI-agent NPI-toegang: agentidentiteit, geautoriseerde workflowcontext, specifieke NPI, uitgevoerde operatie en tijdstempel. Logs moeten vijf jaar worden bewaard, manipulatiebestendig zijn en worden geïntegreerd in de SIEM van de organisatie zodat afwijkende AI-agenttoegang realtime wordt gedetecteerd. Deze audittrail ondersteunt zowel de detectieverplichting van Sectie 500.6 als de forensische basis voor de 72-uurs NYDFS-incidentmelding bij een AI-gerelateerd cyberbeveiligingsincident.
4. Voer inhoudelijke AI-leverancierszorgvuldigheid uit onder Sectie 500.11
Voor elke AI-leverancier waarvan de infrastructuur NPI verwerkt, voer de derde-partij risicobeoordeling uit die Part 500 vereist: beoordeel hoe de leverancier NPI beschermt tijdens modelinference, evalueer de AI-gerelateerde dreigingsblootstelling van de leverancier en het potentiële effect op de onderworpen entiteit, en werk contracten bij zodat melding van AI-gerelateerde cyberbeveiligingsincidenten die de NPI van de entiteit raken verplicht is. Generieke beveiligingsgaranties voldoen niet aan de aangescherpte standaard voor leveranciersbeheer.
5. Werk incidentresponsplannen bij voor AI-gerelateerde cyberbeveiligingsincidenten
Herzie het incidentresponsplan om AI-gerelateerde cyberbeveiligingsincidenten specifiek te adresseren: ongeautoriseerde AI-agent NPI-toegang, prompt injection-aanvallen die tot NPI-exfiltratie leiden, AI-versterkte social engineering die NPI-blootstelling veroorzaakt en AI-incidenten bij leveranciers die de NPI van de entiteit raken. Definieer detectiecriteria, beheersmaatregelen en hoe de 72-uurs NYDFS-meldingsplicht voor elk type incident wordt geactiveerd en uitgevoerd.
Hoe Kiteworks NYDFS Part 500-naleving ondersteunt voor AI-agent-inzet
De kernuitdaging die Part 500 stelt aan AI-inzet is dat de Cybersecurity Regulation vereist dat controles zijn ingebed in de systemen die NPI benaderen – niet pas achteraf worden toegevoegd. AI-agenten die via service-accounts en systeemopdrachten NPI benaderen, opereren buiten het cyberbeveiligingsprogramma om. Om AI-agent NPI-toegang in overeenstemming te brengen met Part 500 is een governance-laag nodig die elke agentinteractie onderschept en de toegangscontroles, audittrail en identiteitsgovernance afdwingt die de regelgeving vereist.
Het Kiteworks Private Data Network biedt onderworpen NYDFS-entiteiten een datalaag-governance-architectuur die tussen AI-agenten en de benodigde NPI zit – agentidentiteit verifiëren, toegangsbeleid op operationeel niveau afdwingen, FIPS 140-3 Level 1 gevalideerde encryptie toepassen en een manipulatiebestendige, vijf jaar te bewaren audittrail vastleggen voor elke NPI-interactie. Elke AI-agentworkflow erft automatisch de cyberbeveiligingscontroles van Part 500, ingebouwd in de data access-architectuur in plaats van handmatig toegevoegd.
Toegangscontroles op operationeel niveau en identiteitsgovernance voor Sectie 500.7
Kiteworks authenticeert elke AI-agent voordat NPI-toegang plaatsvindt, met unieke credentials per workflow gekoppeld aan de menselijke autorisator die de taak heeft gedelegeerd. Operationeel niveau ABAC-beleid zorgt ervoor dat elke agent alleen toegang heeft tot de NPI die nodig is voor de specifieke geautoriseerde workflow. Dit voldoet aan de toegangscontrolevereisten van Part 500 voor AI-agent NPI-toegang en biedt de operationele afbakening die service-account-inzet niet kan aantonen.
Manipulatiebestendige audittrail voor Sectie 500.6 en 72-uurs incidentmelding
Elke AI-agent NPI-interactie wordt vastgelegd in een manipulatiebestendige, operationeel niveau log – agentidentiteit, menselijke autorisator, specifieke NPI, type operatie, uitkomst van beleidsevaluatie en tijdstempel. Logs worden vijf jaar bewaard en geïntegreerd in de SIEM van de organisatie voor realtime detectie van afwijkende toegang. Wanneer een kwalificerend AI-gerelateerd cyberbeveiligingsincident zich voordoet, is het volledige interactieregister direct beschikbaar ter ondersteuning van de 72-uurs NYDFS-meldingsplicht.
Ondersteuning voor leveranciersbeheer voor Sectie 500.11
Kiteworks biedt onderworpen entiteiten een leveranciersrelatie die is opgebouwd rond aantoonbare Part 500-naleving. De architectuur van het platform zorgt ervoor dat NPI die door AI-agenten wordt benaderd, wordt beheerst door dezelfde toegangscontroles, encryptie en auditinfrastructuur als alle andere NPI-uitwisseling – waardoor onderworpen entiteiten een leveranciersrelatie hebben die zij met specificiteit kunnen documenteren in hun Sectie 500.11-beoordeling, niet met generieke verklaringen.
Voor NYDFS-onderworpen entiteiten die AI-agent-inzet binnen hun Part 500-cyberbeveiligingsprogramma willen brengen zonder de inzet te vertragen, zorgt Kiteworks ervoor dat elke AI-agentinteractie met NPI compliant is by design. Lees meer over Kiteworks voor de financiële sector of vraag een demo aan.
Veelgestelde vragen
Part 500 is van toepassing op AI-agenten die NPI benaderen. De branchebrief van NYDFS van oktober 2024 bevestigde dat de bestaande vereisten van de Cybersecurity Regulation – risicobeoordeling, toegangscontroles, audittrail, leveranciersbeheer en incidentrespons – allemaal gelden voor AI-inzet van onderworpen entiteiten. De regelgeving reguleert toegang tot NPI ongeacht of die toegang wordt uitgevoerd door een menselijke medewerker, een geautomatiseerd proces of een AI-agent. Onderworpen entiteiten kunnen AI-governance niet als buiten de Part 500-nalevingsgrens plaatsen.
De branchebrief van NYDFS van oktober 2024 legt geen nieuwe vereisten op – ze verduidelijkt hoe bestaande Part 500-verplichtingen van toepassing zijn op AI. Van onderworpen entiteiten wordt verwacht: risicobeoordelingen bijwerken om AI-gerelateerde risico’s van eigen AI-gebruik, AI-leveranciersafhankelijkheden en AI-gerelateerde kwetsbaarheden specifiek te adresseren; beoordelen of MFA en andere toegangscontroles bestand zijn tegen AI-versterkte aanvallen zoals deepfakes; AI-specifieke zorgvuldigheid uitvoeren bij derde AI-leveranciers en melding van AI-gerelateerde cyberbeveiligingsincidenten eisen; NPI die in AI-systemen wordt gebruikt inventariseren en beheren; en zorgen dat incidentresponsplannen AI-gerelateerde cyberbeveiligingsincidenten adresseren. Elk van deze punten is een bestaande Part 500-verplichting toegepast op de AI-context – geen nieuwe wettelijke eis.
Een SOC 2-rapport alleen voldoet niet aan de vereisten voor derde dienstverleners van Part 500 onder Sectie 500.11. Part 500 vereist inhoudelijke zorgvuldigheid die specifiek is voor hoe de leverancier de NPI van de onderworpen entiteit beschermt, inclusief hoe AI-gerelateerde dreigingen bij de leverancier de entiteit kunnen raken. De richtlijn van oktober 2024 voegt toe dat leverancierscontracten melding van AI-gerelateerde cyberbeveiligingsincidenten die de NPI van de entiteit raken verplicht moeten stellen. Onderworpen entiteiten moeten SOC 2-beoordeling aanvullen met een AI-specifieke derde-partij risicobeoordeling van de NPI-toegangsarchitectuur van de leverancier en leverancierscontracten bijwerken met AI-specifieke meldings- en cyberbeveiligingsbepalingen.
Om materiële Part 500-naleving te certificeren voor een periode waarin AI-agenten NPI benaderden, moeten onderworpen entiteiten beschikken over: een actuele risicobeoordeling die AI-gerelateerde risico’s specifiek adresseert; toegangscontroles die AI-agent NPI-toegang op operationeel niveau reguleren; audittrail die AI-agent NPI-toegang vastlegt op het detailniveau dat Sectie 500.6 vereist; inhoudelijke derde-partij beoordelingen van AI-leveranciers die NPI verwerken; en incidentresponsplannen die AI-gerelateerde cyberbeveiligingsincidenten adresseren. Zonder deze controles certificeren is niet alleen een governance-risico – het is een potentieel frauderisico gezien de persoonlijke aansprakelijkheidsvereisten van de Second Amendment.
Als een AI-agent een cyberbeveiligingsincident veroorzaakt of daarbij betrokken is dat voldoet aan de meldingsdrempel van Part 500 – inclusief ongeautoriseerde toegang tot of verwerving van NPI – moet de onderworpen entiteit NYDFS binnen 72 uur na vaststelling van het incident informeren. De meldingsplicht maakt geen onderscheid tussen AI-veroorzaakte en door mensen veroorzaakte incidenten. De richtlijn van oktober 2024 droeg onderworpen entiteiten specifiek op om incidentresponsplannen te laten inspelen op AI-gerelateerde cyberbeveiligingsincidenten. Als de entiteit het AI-gerelateerde incident niet tijdig kan detecteren – omdat AI-agent NPI-toegang niet realtime wordt vastgelegd in auditlogs – kan de 72-uurs termijn verstrijken voordat het incident überhaupt wordt geïdentificeerd.
Aanvullende bronnen
- Blog Post
Zero‑Trust Strategieën voor betaalbare AI-privacybescherming - Blog Post
Hoe 77% van de organisaties faalt in AI-gegevensbeveiliging - eBook
AI Governance Gap: Waarom 91% van de kleine bedrijven Russisch roulette speelt met gegevensbeveiliging in 2025 - Blog Post
Er is geen “–dangerously-skip-permissions” voor uw data - Blog Post
Toezichthouders zijn klaar met vragen of u een AI-beleid heeft. Ze willen bewijs dat het werkt.