Human in the Loop: Wat het betekent voor AI-naleving en wanneer het vereist is

Human in the Loop: Wat het betekent voor AI-naleving en wanneer het vereist is

“Human in the loop” is een van de meest gebruikte — en minst precies gedefinieerde — concepten binnen AI-gegevensbeheer. Organisaties gebruiken het om raden van bestuur gerust te stellen dat AI-beslissingen worden gecontroleerd. Toezichthouders stellen het verplicht als voorwaarde voor het inzetten van AI met hoog risico. Leveranciers prijzen het aan als functie. In de praktijk wordt het echter vaak op een manier geïmplementeerd die wel aan het label voldoet, maar niet aan de daadwerkelijke vereiste.

Het nalevingsgat dat hierdoor ontstaat is aanzienlijk. Een menselijke beoordelingsprocedure die te oppervlakkig, te traag of te losgekoppeld is van de onderliggende AI-beslissingsketen, vormt geen zinvol toezicht — en toezichthouders beginnen dat nu expliciet te stellen. De vraag is niet of mensen betrokken zijn bij je AI-workflows. Het gaat erom of die betrokkenheid echt, gedocumenteerd en verdedigbaar is wanneer een auditor het onderzoekt.

Samenvatting voor het management

Belangrijkste idee: Human in the loop is geen eenduidige standaard — het is een spectrum van toezichtmechanismen, variërend van volledige menselijke beoordeling van elke AI-output tot minimale interventierechten. Wat voldoet aan compliant toezicht hangt af van de regelgeving, het risiconiveau van het AI-gebruik en of het mechanisme daadwerkelijk in staat is om uitkomsten te beïnvloeden of slechts procedureel is.

Waarom dit relevant is: GDPR Artikel 22, de EU AI-wet, HIPAA-richtlijnen voor klinische besluitvorming en risicokaders voor de financiële sector stellen allemaal eisen aan menselijk toezicht — met verschillende drempels en verschillende bewijslasten. Organisaties die alleen in naam toezicht houden zonder documentatie om aan te tonen dat het zinvol is, lopen hetzelfde risico op regelgeving als organisaties zonder enig toezicht.

Belangrijkste inzichten

  1. Human in the loop is een spectrum — vereisten variëren van het recht om menselijke beoordeling aan te vragen (GDPR Artikel 22) tot verplichte menselijke autorisatie vóór AI-acties (EU AI-wet voor systemen met hoog risico) tot continue monitoring van AI-uitvoer (risicobeheer in de financiële sector).
  2. Nominaal toezicht is geen compliant toezicht — een beoordelaar die niet over de informatie, bevoegdheid of tijd beschikt om daadwerkelijk invloed uit te oefenen op een AI-beslissing, voldoet niet aan de vereisten voor zinvolle menselijke beoordeling.
  3. De delegatieketen is de bewijsgrondslag van menselijk toezicht — elke AI-agentactie moet herleidbaar zijn tot een menselijke autorisator, vastgelegd in een fraudebestendig auditrecord.
  4. Vereisten voor menselijk toezicht gelden voor AI-agents én AI-ondersteunde beslissingen — autonome workflows die gereguleerde gegevens benaderen zonder menselijke autorisatie brengen dezelfde verplichtingen met zich mee als AI-aanbevelingen die aan menselijke beoordelaars worden gepresenteerd.
  5. Echt toezicht vereist handhaving op dataniveau — een audittrail die documenteert wie wat, wanneer en onder welk beleid heeft geautoriseerd, onderscheidt echt toezicht van schijnnaleving.

Wat “Human in the Loop” Echt Betekent

De term beschrijft in welke mate menselijk oordeel is geïntegreerd in het beslissings- of actieproces van een AI-systeem. Voor naleving zijn drie duidelijke niveaus van belang — en welk niveau vereist is, bepaalt wat je organisatie moet implementeren en documenteren.

Menselijke autorisatie (sterkste vorm). Geen enkele AI-actie vindt plaats zonder expliciete goedkeuring van een mens. De mens beoordeelt de voorgestelde actie, heeft daadwerkelijk de bevoegdheid om deze te wijzigen of af te wijzen, en zijn/haar beslissing wordt vóór uitvoering gelogd. Dit is wat de EU AI-wet Artikel 14 vereist voor AI-systemen met hoog risico — en wat de delegatieketen van Kiteworks implementeert voor AI-agenttoegang tot gegevens: elke agentactie wordt geautoriseerd door een menselijke beslisser waarvan identiteit en goedkeuring worden vastgelegd in het auditrecord.

Menselijke beoordeling (intermediaire vorm). AI-uitvoer wordt aan een mens gepresenteerd die deze beoordeelt voordat er actie op wordt ondernomen, maar de beoordelaar heeft mogelijk geen volledig inzicht in de AI-redenering, of beoordeelt op een hoeveelheid die zorgvuldige aandacht onmogelijk maakt. Dit voldoet aan de letter van sommige vereisten — waaronder het recht op menselijke beoordeling onder GDPR Artikel 22 — maar toezichthouders kijken steeds kritischer of beoordeling op dit niveau daadwerkelijk zinvol is.

Menselijk toezicht (zwakste compliant vorm). Mensen monitoren AI-uitvoer op populatieniveau, met de mogelijkheid om in te grijpen wanneer foutpatronen worden gesignaleerd, maar individuele beslissingen worden niet vooraf beoordeeld. Dit is de minimale standaard voor AI met lager risico en het model dat wordt gebruikt in risicobeheer in de financiële sector. Het is niet voldoende voor AI met hoog risico waarbij individuele beslissingen aanzienlijke gevolgen hebben voor specifieke personen.

De meest gemaakte fout is dat organisaties menselijk toezicht implementeren waar menselijke autorisatie vereist is, of nominale beoordeling waar daadwerkelijke beoordeling nodig is. Begrijpen welk niveau op elke use case van toepassing is, is de basisvraag van human-in-the-loop compliance.

Welke Data Compliance-standaarden zijn relevant?

Lees nu

Wanneer Menselijk Toezicht Wettelijk Verplicht Is

Het regelgevend landschap voor menselijk toezicht op AI groeit naar elkaar toe binnen de belangrijkste kaders — maar de specifieke vereisten, triggers en bewijslasten verschillen genoeg dat elk kader afzonderlijk beoordeeld moet worden voor elke AI-inzet.

GDPR Artikel 22. Personen hebben het recht niet te worden onderworpen aan uitsluitend geautomatiseerde beslissingen die juridische of vergelijkbare significante gevolgen hebben. Waar dergelijke verwerking plaatsvindt, moeten organisaties een wettelijke basis bieden, zinvolle informatie over de gebruikte logica, en de mogelijkheid om menselijke beoordeling van de beslissing aan te vragen, hun mening te geven en het resultaat aan te vechten. Dit is een recht-op-aanvraag standaard — menselijke beoordeling moet beschikbaar en echt zijn, maar hoeft niet voorafgaand aan elke beslissing plaats te vinden. Een DPIA is vereist voordat een systeem wordt ingezet dat Artikel 22 activeert.

EU AI-wet — AI-systemen met hoog risico. Voor AI-systemen die als hoog risico zijn geclassificeerd onder Annex III — waaronder kredietbeoordeling, werving, zorgprocessen, onderwijs, rechtshandhaving, kritieke infrastructuur en grenscontrole — is menselijk toezicht verplicht en moet het in de systeemarchitectuur zijn ingebouwd vóór inzet. Artikel 14 vereist dat AI-systemen met hoog risico toezicht mogelijk maken door personen die de beperkingen van het systeem begrijpen, de werking kunnen onderbreken of overrulen, en kunnen besluiten het systeem in een specifieke situatie niet te gebruiken. Dit is een architecturale vereiste voor daadwerkelijk menselijke controle, niet slechts een procedureel recht. Aangewezen toezichthouders moeten getraind zijn en hun bevoegdheid moet worden gedocumenteerd.

HIPAA en klinische besluitvorming. HIPAA-naleving bevat geen expliciet human-in-the-loop-vereiste voor AI, maar FDA-richtlijnen maken onderscheid tussen software die het onafhankelijke oordeel van een arts ondersteunt (lagere regeldruk) en software die het klinisch oordeel vervangt (classificatie als medisch hulpmiddel). De praktische standaard voor HIPAA-gereguleerde klinische AI: uiteindelijke beslissingen die invloed hebben op patiëntenzorg blijven bij bevoegde artsen. De HIPAA Security Rule voegt toe dat AI-systemen die PHI benaderen, audittrails moeten produceren die reconstrueren wie welke beslissing wanneer nam.

Risicobeheer financiële sector (SR 11-7). De SR 11-7-richtlijn van de Federal Reserve en OCC — de feitelijke standaard voor AI in de Amerikaanse bankensector — vereist doorlopend menselijk toezicht op modeluitvoer, met vastgelegde validatie, uitkomstbeoordeling en documentatie van overrides. FINRA heeft vergelijkbare richtlijnen uitgegeven voor algoritmische handel en klantcommunicatiesystemen. De standaard in de financiële sector is verantwoording op modelniveau — systematische monitoring, rapportage van uitzonderingen en een gedocumenteerd escalatieproces — niet beoordeling van individuele beslissingen.

Tabel 1: Vereisten voor menselijk toezicht per regelgevend kader
Kader Vereist toezichtsniveau Trigger Wat “zinvol” vereist
GDPR Artikel 22 Menselijke beoordeling op aanvraag Geautomatiseerde beslissingen met juridische of significante gevolgen voor personen Beoordelaar moet daadwerkelijk bevoegd zijn om uitkomst te wijzigen; beoordeling mag niet puur formeel zijn
EU AI-wet Artikel 14 Menselijke autorisatie (architecturale vereiste) AI-systemen met hoog risico (Annex III) Specifieke, getrainde personen met bevoegdheid en mogelijkheid tot onderbreken of overrulen moeten vóór inzet worden aangewezen
HIPAA / FDA CDS-richtlijnen Klinisch oordeel behouden Klinische AI voor besluitvorming met invloed op patiëntenzorg Bevoegde arts moet onafhankelijk oordeel vellen; AI mag klinische besluitvorming niet vervangen zonder classificatie als medisch hulpmiddel
SR 11-7 (financiële sector) Menselijke monitoring en override Elk model dat financiële beslissingen beïnvloedt Modelvalidatie, monitoring van uitkomsten, rapportage van uitzonderingen en documentatie van overrides met vastgelegde escalatieprocessen

Wat Menselijk Toezicht Echt Maakt of Slechts Schijn

Het belangrijkste onderscheid in human-in-the-loop compliance is tussen toezicht dat daadwerkelijk invloed kan uitoefenen op AI-uitkomsten — en toezicht dat alleen in naam bestaat, maar structureel niet in staat is dat te doen. Toezicht is alleen echt als aan vier voorwaarden wordt voldaan.

De beoordelaar moet over voldoende informatie beschikken. Een beoordelaar die een AI-aanbeveling ontvangt zonder inzicht in de onderliggende gegevens, de betrouwbaarheid van de output of de factoren die eraan ten grondslag liggen, kan geen daadwerkelijk oordeel vellen. EU AI-wet Artikel 13 vereist dat AI-systemen met hoog risico “voldoende transparantie” bieden om menselijk toezicht mogelijk te maken — de beoordelaar moet dus genoeg zien om te kunnen beoordelen, niet alleen om goed te keuren.

De beoordelaar moet bevoegd zijn om te handelen. Een beoordelaar die wel bezwaar kan maken maar waarvan het bezwaar geen effect heeft — omdat de AI-beslissing al is uitgevoerd, of omdat de override-bevoegdheid elders ligt — oefent geen toezicht uit. Echt toezicht vereist dat de beoordelaar de AI-actie kan wijzigen, afwijzen of uitstellen, en dat zijn/haar beslissing daadwerkelijk het resultaat bepaalt.

De hoeveelheid beoordelingen moet passen bij echte aandacht. Een veelvoorkomende fout is beoordelingswachtrijen die de capaciteit van een individu voor zorgvuldige aandacht overschrijden. Toezichthouders die human-in-the-loop compliance onderzoeken, vragen steeds vaker naar de hoeveelheid beoordelingen, tijd per beoordeling en override-ratio’s. Een bijna-nul override-ratio geeft aan dat beoordelingen niet onafhankelijk zijn van de AI-output.

Toezicht moet worden gedocumenteerd. Menselijk toezicht dat niet wordt gedocumenteerd, kan niet worden bewezen. De auditstandaard is een fraudebestendig record van wie wat, wanneer, onder welke informatie en met welke beslissing heeft beoordeeld. Dit is de delegatieketen die Kiteworks afdwingt voor elke AI-agentgegevensinteractie — de menselijke autorisator is geïdentificeerd, zijn/haar autorisatie is gekoppeld aan de specifieke actie, en het volledige record wordt vastgelegd in de audittrail die je SIEM voedt.

Menselijk Toezicht voor AI-agents — een Speciaal Geval

Het human-in-the-loop-debat in de meeste organisaties richt zich op AI-ondersteunde menselijke beslissingen — een model dat een leningaanvraag aanbeveelt, fraude signaleert of een diagnose suggereert. De mens beoordeelt de aanbeveling en beslist. Dit is het model dat GDPR Artikel 22 en de meeste vroege AI-governance-discussies veronderstelden.

Autonome AI-agents die binnen bedrijfsgegevenssystemen opereren, vormen een andere uitdaging. Een agent die bestanden benadert, communicatie verstuurt of transacties uitvoert, doet geen aanbeveling — maar handelt direct. De governance-standaard die voldoet aan de regelgeving voor agentische AI is de delegatieketen: elke AI-agentactie moet herleidbaar zijn tot een menselijke beslisser die de workflow heeft geautoriseerd, waarbij die autorisatie fraudebestendig wordt vastgelegd. De mens is verantwoordelijk voor de geautoriseerde scope — niet voor elke individuele actie — maar die verantwoordelijkheid moet op interactieniveau aantoonbaar zijn, niet alleen op workflow-niveau.

Dit is een zinvolle en afdwingbare standaard. Het vereist dat elke AI-agent wordt geauthenticeerd met een identiteit die is gekoppeld aan een menselijke autorisator; dat de scope van wat de agent mag benaderen wordt bepaald door ABAC-beleid dat op dataniveau wordt afgedwongen vóór enige actie; dat elke gegevensinteractie wordt gelogd in een fraudebestendige audittrail die de delegatieketen bewaart; en dat de menselijke autorisator kan worden geïdentificeerd en verantwoordelijk wordt gehouden voor elke agentactie binnen de geautoriseerde scope. Dit is human in the loop niet als beoordelingswachtrij, maar als governance-architectuur — verantwoording ingebed in de werking van de AI, niet achteraf toegevoegd als een procedurele stap.

Kiteworks Compliant AI: De Delegatieketen die Menselijk Toezicht Verdedigbaar Maakt

Het moeilijkste aan human-in-the-loop compliance voor AI-agents is niet het betrekken van mensen — maar het aantoonbaar, toewijsbaar en auditklaar maken van die betrokkenheid voor elke agentinteractie met gevoelige gegevens. De meeste organisaties implementeren toezicht op workflow-niveau, waarbij een mens een proces goedkeurt voordat het wordt uitgevoerd. Wat auditors willen zien is toezicht op interactieniveau — wie heeft deze specifieke actie, op deze specifieke gegevens, op dit specifieke moment, en onder welk beleid geautoriseerd.

Kiteworks compliant AI dwingt de delegatieketen af op dataniveau binnen het Private Data Network:

  • Elke AI-agent wordt geauthenticeerd en gekoppeld aan een menselijke autorisator voordat toegang tot gegevens plaatsvindt; ABAC-beleid bepaalt wat de agent op operationeel niveau met die gegevens mag doen;
  • FIPS 140-3 Level 1 gevalideerde encryptie beschermt alle gegevens in transit en in rust;
  • Een fraudebestendige audittrail legt elke interactie vast — wie heeft geautoriseerd, welke gegevens zijn benaderd, welke actie is uitgevoerd en wanneer.
  • De datapolicy-engine zorgt ervoor dat geen enkele agentactie buiten de geautoriseerde scope plaatsvindt, ongeacht de instructies aan het model.

Wanneer een toezichthouder vraagt hoe je organisatie menselijke verantwoordelijkheid voor AI-agentacties waarborgt, is het antwoord een gestructureerd bewijspakket — geen procesbeschrijving.

Neem contact met ons op om te zien hoe Kiteworks de delegatieketen implementeert voor jouw AI-inzet.

Veelgestelde vragen

Nee — GDPR Artikel 22 vereist dat personen het recht hebben om menselijke beoordeling te verkrijgen van geautomatiseerde beslissingen die juridische of vergelijkbare significante gevolgen hebben, niet dat elke beslissing vooraf wordt beoordeeld. Het recht moet echter echt zijn: het beoordelingsproces moet beschikbaar zijn, de beoordelaar moet bevoegd zijn om de uitkomst te wijzigen, en de organisatie moet kunnen aantonen dat de beoordeling zinvol is en niet slechts formeel. Waar Artikel 22 van toepassing is, moeten organisaties ook zinvolle informatie geven over de logica van de geautomatiseerde beslissing, de persoon in staat stellen zijn/haar standpunt te uiten, en documenteren hoe verzoeken om menselijke beoordeling worden verwerkt en afgehandeld.

De EU AI-wet Artikel 14 vereist dat AI-systemen met hoog risico — waaronder kredietbeoordeling, werkgelegenheid, zorgprocessen, onderwijs, rechtshandhaving, kritieke infrastructuur en grenscontrole — zo zijn ontworpen dat menselijk toezicht effectief kan worden uitgeoefend voordat het systeem op de markt wordt gebracht of in gebruik wordt genomen. Dit betekent het aanwijzen van specifieke personen met de competentie en bevoegdheid om de AI-uitvoer te begrijpen, de werking te monitoren, deze indien nodig te onderbreken of te overrulen, en te besluiten het systeem in een bepaalde situatie niet te gebruiken. Het is een architecturale en organisatorische vereiste — niet alleen een procedureel recht — en moet worden aangetoond met trainingsrecords, toezichtlogs en gedocumenteerde override-processen. Een DPIA moet beoordelen of het voorgestelde toezichtmechanisme aan deze standaard voldoet vóór inzet.

Autonome AI-agents die gegevens benaderen, transacties uitvoeren of ingrijpende acties ondernemen zonder de output aan een mens voor te leggen, vereisen een ander toezichtmodel dan AI-aanbevelingssystemen. De governance-standaard die voldoet aan de regelgeving voor agentische AI is de delegatieketen: elke agentactie moet herleidbaar zijn tot een menselijke autorisator die de scope van de agent heeft bepaald, waarbij die autorisatie fraudebestendig wordt vastgelegd. De mens is verantwoordelijk voor de geautoriseerde scope — niet voor elke individuele actie — maar die verantwoordelijkheid moet op interactieniveau aantoonbaar zijn, niet alleen op workflow-niveau. AI-gegevensbeheerinfrastructuur die deze delegatieketen afdwingt en vastlegt, voldoet aan de verantwoordingseis waar toezichthouders op aansturen voor agentische AI.

Zinvol toezicht vereist drie voorwaarden: de beoordelaar beschikt over voldoende informatie over de AI-beslissing en onderliggende gegevens om een daadwerkelijk onafhankelijk oordeel te vellen; de beoordelaar heeft de bevoegdheid om de AI-actie te wijzigen, af te wijzen of uit te stellen op basis van dat oordeel; en de hoeveelheid beslissingen die ter beoordeling worden aangeboden past bij de tijd en aandacht die echte beoordeling vereist. Nominaal toezicht schiet op minstens één van deze punten tekort — een beoordelaar zonder inzicht in de AI-redenering, die de uitkomst niet daadwerkelijk kan wijzigen, of die beslissingen verwerkt in een tempo dat zorgvuldige aandacht onmogelijk maakt, oefent geen daadwerkelijk toezicht uit. Toezichthouders die human-in-the-loop compliance onderzoeken, vragen steeds vaker naar override-ratio’s, beoordelingsvolumes en de tijd per beslissing als indicatoren voor echt toezicht.

De bewijslast voor menselijk toezicht verschilt per kader, maar komt neer op een gemeenschappelijke kern: een fraudebestendig record van wie wat, wanneer, onder welke informatie en met welke beslissing heeft beoordeeld — inclusief of de AI-uitvoer is goedgekeurd, gewijzigd of afgewezen. Voor AI-agentworkflows strekt dit zich uit tot de delegatieketen: welke mens de agent heeft geautoriseerd, welke scope is verleend, wat de agent binnen die scope heeft benaderd en gedaan, en wanneer. Dit record moet worden bewaard zolang het AI-systeem in productie is en de beslissingen ervan juridische gevolgen hebben. Een audittrail die deze informatie op operationeel niveau vastlegt en je SIEM voedt — niet alleen sessielogs — is de infrastructuur die menselijk toezicht aantoonbaar maakt in plaats van slechts geclaimd.

Aanvullende bronnen

  • Blog Post
    Zero‑Trust strategieën voor betaalbare AI-privacybescherming
  • Blog Post
    Hoe 77% van de organisaties faalt in AI-gegevensbeveiliging
  • eBook
    AI Governance Gap: Waarom 91% van de kleine bedrijven Russisch roulette speelt met gegevensbeveiliging in 2025
  • Blog Post
    Er bestaat geen “–dangerously-skip-permissions” voor je gegevens
  • Blog Post
    Toezichthouders zijn klaar met vragen of je een AI-beleid hebt. Ze willen bewijs dat het werkt.

Aan de slag.

Het is eenvoudig om te beginnen met het waarborgen van naleving van regelgeving en het effectief beheren van risico’s met Kiteworks. Sluit je aan bij de duizenden organisaties die vol vertrouwen privégegevens uitwisselen tussen mensen, machines en systemen. Begin vandaag nog.

Table of Content
Share
Tweet
Share
Explore Kiteworks