Kan uw RAG-pijplijn een vector voor data-exfiltratie worden? Het risico dat beveiligingsteams over het hoofd zien
Retrieval Augmented Generation (RAG) is de architectuur die enterprise AI echt bruikbaar maakt: in plaats van uitsluitend te vertrouwen op trainingsdata, haalt de AI relevante documenten op uit de eigen repositories van de organisatie en gebruikt deze om zijn antwoorden te onderbouwen.
De businesscase is reëel — RAG-pijplijnen maken AI-assistenten nauwkeuriger, actueler en veel waardevoller voor kennisintensief werk. Ook het beveiligingsaspect is reëel, maar de meeste RAG-implementaties slagen daar niet in. Een RAG-pijplijn is in de kern een high-throughput document retrieval-systeem dat is gekoppeld aan een AI die samenvat, synthetiseert en presenteert wat hij vindt. Zonder toegangscontrole per verzoek, handhaving van gevoeligheidslabels en realtime monitoring, is dat ook een nauwkeurige beschrijving van een data-exfiltratie tool. Deze post is bedoeld voor CISO’s en compliance officers die moeten begrijpen hoe RAG-pijplijnen exfiltratiekanalen worden — en welke beveiligingsarchitectuur dit voorkomt.
Executive Summary
Belangrijkste idee: Een RAG-pijplijn die documenten ophaalt op basis van relevantie van de query, zonder toegangscontrole per gebruiker, zonder evaluatie van gevoeligheidslabels en zonder realtime monitoring, is een data-exfiltratiekanaal binnen je beveiligingsperimeter — met een natuurlijke taalinterface die systematische data-extractie eenvoudiger maakt dan elk traditioneel aanvalsmiddel. De vijf routes waarlangs RAG-pijplijnen exfiltratie mogelijk maken, zijn allemaal te voorkomen; geen ervan wordt voorkomen door de standaardconfiguratie van een RAG-framework.
Waarom dit belangrijk is: RAG-pijplijnen worden ingezet en goedgekeurd als productiviteitstools, niet als data access systemen. Hun beveiligingsreview, als die al plaatsvindt, richt zich op de AI-laag — het model, het ontwerp van de prompt, de outputfiltering. De retrieval-laag — het onderdeel dat daadwerkelijk gevoelige data op schaal aanraakt — krijgt vaak geen beveiligingsreview die gelijkwaardig is aan wat een nieuw bestandstoegangssysteem zou krijgen. In dat gat schuilt het exfiltratierisico.
5 Belangrijkste Inzichten
- Het retrieval-onderdeel van een RAG-pijplijn is een high-throughput data access systeem. Het moet onderworpen zijn aan dezelfde toegangscontroles, handhaving van dataclassificatie en audit logging vereisten als elk ander systeem dat gevoelige bedrijfsdata op schaal benadert — en in de meeste organisaties is dat niet het geval.
- Te ruime permissies bij retrieval is de structurele kwetsbaarheid die de meeste RAG-exfiltratiescenario’s mogelijk maakt. Wanneer het retrieval-onderdeel draait onder een serviceaccount met brede repository-toegang en zonder autorisatie per gebruiker op de retrieval-laag, heeft elke gebruikersquery effectief toegang tot de volledige corpus — inclusief documenten die de gebruiker via geen enkel ander kanaal kan bereiken.
- Indirecte prompt-injectie via opgehaalde content is het RAG-specifieke aanvalspad dat beveiligingsteams het vaakst verrast. Een aanvaller hoeft geen toegang te hebben tot het AI-systeem — hij hoeft alleen maar een kwaadaardig document te plaatsen in een repository die door de RAG-pijplijn wordt geïndexeerd. Wanneer dat document wordt opgehaald als reactie op een legitieme query, worden de ingebedde instructies uitgevoerd binnen de context van de AI.
- Bulk-enumeratieaanvallen op RAG-pijplijnen zijn moeilijk te detecteren met alleen query-niveau monitoring omdat elke individuele query legitiem lijkt. Detectie vereist baseline monitoring van het retrieval-volume per gebruiker, cross-sessie aggregatieanalyse en realtime SIEM-integratie die systematische patronen over de volledige querygeschiedenis kan identificeren.
- Preventie en detectie zijn beide noodzakelijk. Preventiecontroles — RBAC en ABAC per verzoek, handhaving van gevoeligheidslabels, rate limiting — beperken de impact. Detectiecontroles — realtime SIEM-integratie, retrieval volume alerting, analyse van querypatronen — vangen de exfiltratiepogingen op die preventie niet volledig stopt. Geen van beide is op zichzelf voldoende.
Wat RAG Echt Doet Met Je Data — en Waarom Security Teams Het Missen
Retrieval Augmented Generation werkt door een documentcorpus te indexeren in een vectordatabase, de query om te zetten in een vector embedding, de meest semantisch vergelijkbare documenten in de index te vinden en die documenten samen met de query in het contextvenster van de AI te plaatsen. De AI synthetiseert vervolgens een antwoord dat is gebaseerd op de opgehaalde content. Vanuit het perspectief van de gebruiker lijkt dit op een slimme assistent die alles weet over de documenten van je organisatie.
Vanuit data access perspectief is dit wat er gebeurt: de gebruikersquery wordt omgezet in een retrieval-patroon, dat patroon wordt gematcht met een geïndexeerde versie van je documentcorpus, en de meest relevante documenten worden geëxtraheerd en doorgegeven aan een generatief model dat hun inhoud synthetiseert en retourneert. Elke stap in die pijplijn raakt gevoelige data. De vectorindex bevat een semantische representatie van elk geïndexeerd document. De retrieval-stap benadert en verzendt documentinhoud. Het AI-contextvenster bevat die inhoud terwijl het antwoord wordt gegenereerd. Het antwoord zelf kan de inhoud weerspiegelen van documenten die de gebruiker nooit mocht inzien.
Beveiligingsteams die alleen de AI-laag beoordelen — het model, de response filtering, het ontwerp van de prompt — en de retrieval-laag als infrastructuur behandelen, beoordelen de minst gevaarlijke helft van het systeem. De retrieval-laag is waar gegevensbeheer wel of niet bestaat. Een AI die weigert gevoelige informatie uit te geven, kan geen data beschermen die al is opgehaald en in het contextvenster is geplaatst — de governance-fout vond eerder plaats, bij de retrieval-laag, vóórdat het model de query verwerkte.
Je vertrouwt erop dat je organisatie veilig is. Maar kun je het verifiëren?
Lees nu
Vijf Manieren Waarop Een RAG-Pijplijn Een Exfiltratiekanaal Wordt
De routes waarlangs RAG-pijplijnen data-exfiltratie mogelijk maken, variëren van structurele ontwerpfouten die elke standaardimplementatie treffen tot geavanceerde aanvallen die bewuste vijandige inspanning vereisen. Alle vijf zijn te voorkomen met de juiste architectuur. Geen ervan wordt voorkomen door de standaardconfiguratie van een groot RAG-framework.
| Exfiltratiepad | Hoe het werkt | Concreet voorbeeld | Nodige controle om het te voorkomen |
|---|---|---|---|
| Te ruime permissies bij retrieval | RAG-pijplijn haalt documenten op op basis van relevantie van de query zonder toegangscontrole per gebruiker; elke gebruikersquery kan elk document tonen dat de pijplijn kan bereiken | Werknemer vraagt om een samenvatting van recente contractonderhandelingen; pijplijn haalt board-level M&A-term sheets op waar de werknemer via geen enkel ander kanaal toegang toe heeft | RBAC/ABAC per verzoek op de retrieval-laag; evaluatie van gevoeligheidslabels voordat documenten in de AI-context komen |
| Indirecte prompt-injectie via opgehaalde content | Aanvaller plaatst een document in de corpus met ingebedde instructies; wanneer opgehaald, voert de AI die instructies uit — die de AI bijvoorbeeld kunnen aansturen om andere opgehaalde documenten letterlijk uit te geven | Een besmet document in de HR-repository zorgt ervoor dat de AI alle documenten die zich op dat moment in het contextvenster bevinden, samenvoegt en uitgeeft, inclusief andere documenten uit dezelfde sessie | Integriteitscontroles op de corpus; validatie van de bron van documenten; monitoring van output op afwijkende contentpatronen; scopecontroles die kruisbesmetting van documenten voorkomen |
| Bulk query-enumeratie | Geautoriseerde gebruiker of gecompromitteerd account bevraagt systematisch de RAG-pijplijn om repository-inhoud te inventariseren — door te vragen naar elk document dat overeenkomt met opeenvolgende patronen, zoekwoorden of datumbereiken | In 72 uur dient een insider 4.000 gestructureerde queries in die samen de inhoud van een volledige financiële repository ophalen, zonder dat een enkele query een alert triggert | Rate limiting op de datalaag; monitoring van het retrieval-volume per sessie; detectie van afwijkende querypatronen die realtime naar SIEM worden gestuurd |
| Outputaggregatie over sessies heen | Op zichzelf onschuldige queries over meerdere sessies worden door de aanvaller geaggregeerd; geen enkele sessie overschrijdt de alertdrempel, maar samen vormen ze een volledige dataset | Een aanvaller extraheert een volledige klantendatabase over 30 dagen door per sessie steeds één klantrecord op te vragen via aparte geauthenticeerde sessies | Analyse van retrievalpatronen over sessies heen; monitoring van cumulatieve toegang per gebruiker; gedragsbaseline met afwijkingsalerts |
| Gecompromitteerd retrieval-onderdeel | De vectordatabase, embeddingservice of retrieval-API wordt gecompromitteerd; aanvaller heeft direct toegang tot de geïndexeerde inhoud van de corpus zonder via de AI-interface te gaan | Aanvaller misbruikt een niet-gepatchte kwetsbaarheid in de vectordatabase en exporteert de volledige documentindex — inclusief documenten die door de AI waren afgeschermd | Beveiligingscontroles op de retrieval-infrastructuur zelf, niet alleen op de AI-laag; encryptie in rust; toegangscontrole op de vectordatabase gelijkwaardig aan die van de brondocumenten |
De Structurele Fout Die De Meeste RAG-Pijplijnen Hebben
Van de vijf exfiltratiepaden is te ruime permissie bij retrieval het meest wijdverspreid, omdat het de standaard is. Een RAG-pijplijn bouwen met een serviceaccount dat brede repository-toegang heeft en relevantiegebaseerde retrieval die de meest semantisch vergelijkbare documenten retourneert, ongeacht de autorisatie van de gebruiker, is de weg van de minste weerstand. Het vereist geen extra configuratie, werkt direct en levert de beste retrievalkwaliteit — omdat het de volledige corpus doorzoekt in plaats van een subset per gebruiker.
Het beveiligingsgevolg is dat het voordeel van retrievalkwaliteit ten koste gaat van toegangscontrole. Een relevantiegebaseerd retrievalsysteem zonder autorisatie per gebruiker haalt niet de documenten op die de gebruiker mag zien — het haalt documenten op die relevant zijn voor de query. Dat is niet hetzelfde. Een query naar “Q3 financiële prestaties” zal net zo waarschijnlijk board-level vertrouwelijke documenten tonen als de geautoriseerde samenvatting waar de gebruiker eigenlijk naar op zoek was, en het retrievalsysteem heeft geen mechanisme om daartussen te onderscheiden.
De oplossing vereist het afdwingen van RBAC en ABAC per verzoek op de retrieval-laag — niet als filter achteraf, maar als beperking op wat het retrievalsysteem mag teruggeven op basis van de query van een gebruiker. Filtering achteraf (alles ophalen en dan verwijderen wat de gebruiker niet mag zien) stelt gevoelige documentinhoud nog steeds bloot aan het contextvenster van de AI voordat het filter wordt toegepast. Autorisatiescoping vooraf (alleen ophalen wat de gebruiker mag benaderen) zorgt ervoor dat gevoelige documenten het AI-contextvenster nooit bereiken. Dit onderscheid is architectonisch essentieel: filtering achteraf is een outputcontrole; autorisatiescoping vooraf is een toegangscontrole.
Indirecte Prompt-Injectie: De Aanval Die In Je Eigen Documenten Zit
Directe prompt-injectie — gebruikers die proberen de AI te manipuleren via hun eigen queries — is goed begrepen en redelijk goed te beperken via inputvalidatie en het ontwerp van de system prompt. Indirecte prompt-injectie via de RAG-retrieval-laag is minder begrepen en aanzienlijk moeilijker te beperken, omdat het aanvalspad de databron is die de organisatie zelf vertrouwt.
De aanval werkt als volgt: een aanvaller met schrijfrechten op een repository die door de RAG-pijplijn wordt geïndexeerd — een gedeelde schijf, een documentmanagementsysteem, een samenwerkingsplatform — creëert een document met instructies die door de AI als opdrachten worden geïnterpreteerd in plaats van als content. Wanneer een legitieme gebruikersquery ertoe leidt dat dat document wordt opgehaald, komen de ingebedde instructies samen met legitieme content in het contextvenster van de AI — en de AI kan ze uitvoeren, mogelijk andere opgehaalde documenten uitgeven, data naar externe endpoints sturen of acties uitvoeren die de gebruiker niet heeft gevraagd. Als de instructies de AI aansturen om andere documenten in de context uit te geven, content naar een extern endpoint te sturen of acties uit te voeren die de gebruiker niet heeft gevraagd, kan de AI daaraan gehoor geven — omdat de instructies via de vertrouwde databron zijn binnengekomen.
De implicatie voor preventie van gegevensverlies is aanzienlijk: een aanvaller hoeft het AI-systeem, de retrieval-infrastructuur of een gebruikersaccount niet te compromitteren om deze aanval uit te voeren. Hij hoeft alleen maar een document toe te voegen aan een geïndexeerde repository — een permissie die in de meeste organisaties breed is verspreid. Elke aannemer met SharePoint-toegang, elke klant met toegang tot een gedeelde samenwerkingsruimte, elke leverancier die documenten mag indienen in een verwerkingsqueue is een potentiële injectieroute.
Integriteitscontroles op de corpus — validatie van documentbronnen en scannen op ingebedde instructiepatronen vóór indexering — verkleinen dit risico aanzienlijk. Dat geldt ook voor een zero trust gegevensuitwisselingsarchitectuur die beperkt welke instructies de AI mag uitvoeren op basis van opgehaalde content, onafhankelijk van wat de content zegt. Geen van beide elimineert het risico volledig, daarom is monitoring van output op afwijkende contentpatronen — antwoorden die rauwe documentdumps, base64-gecodeerde content of verdachte gestructureerde data bevatten — een noodzakelijke detectielaag.
Waarom Traditionele DLP RAG-Exfiltratie Niet Ziet
Organisaties met volwassen programma’s voor preventie van gegevensverlies gaan er vaak van uit dat die controles ook gelden voor de output van RAG-pijplijnen. In de meeste gevallen is dat niet zo — of ze vangen alleen de meest voor de hand liggende gevallen en missen de systematische.
Traditionele DLP werkt op dataprofielen: reguliere expressies, zoekwoorden, bestandstypeherkenning, content fingerprinting. Het is effectief in het onderscheppen van een bestand met het label “CONFIDENTIAL” dat als bijlage aan een uitgaande e-mail wordt toegevoegd, of een burgerservicenummer-patroon in een bericht naar een extern domein. De output van een RAG-pijplijn ziet er niet zo uit. De AI synthetiseert opgehaalde content tot natuurlijke taal — samenvattingen, analyses, narratieven. Gevoelige informatie uit een vertrouwelijk document kan in het antwoord voorkomen als geparafraseerde tekst, verwerkt in een aanbeveling of verspreid over meerdere alinea’s. Pattern-matching DLP die zoekt naar gestructureerde gevoelige data heeft beperkte zichtbaarheid in gesynthetiseerde content.
De bulk-enumeratieaanval ontwijkt DLP specifiek omdat elke individuele query en response volledig legitiem lijkt — een geautoriseerde gebruiker die een redelijke vraag stelt en een redelijk antwoord krijgt. Het patroon dat de aanval verraadt is gedragsmatig, niet inhoudelijk: de hoeveelheid queries, de systematische variatie in querytermen, de cumulatieve breedte van de data die over sessies heen wordt benaderd. Detectie vereist analyse van audit logs op de retrieval-laag, baseline-modellering per gebruiker en SIEM-integratie die sessie-overschrijdend aggregeert — mogelijkheden die upstream liggen van waar DLP opereert.
Detectiecontroles: Wat Realtime Monitoring Moet Opvangen
| Detectiecontrole | Hoe het werkt | Wat het opvangt | Waarom het belangrijk is |
|---|---|---|---|
| Realtime SIEM-integratie | Alle RAG-pijplijnoperaties — queries, retrievals, responses — direct naar SIEM zonder batching of vertraging | Afwijkend retrieval-volume; ongebruikelijke querypatronen; toegang buiten werktijden; geografische afwijkingen; cross-sessie aggregatie | Maakt reactie mogelijk binnen de actieve exfiltratiesessie in plaats van ontdekking achteraf |
| Logging van autorisatie per verzoek | Elke retrievalbeslissing wordt gelogd met autorisatie-uitkomst — toegestaan, geweigerd, scope-beperkt — samen met gebruikersidentiteit en documentidentiteit | Beleidschendingen; pogingen tot toegang tot data buiten scope; autorisatiefouten die wijzen op probeergedrag | Levert een forensisch volledig overzicht voor het bepalen van de omvang van het datalek en melding aan toezichthouders |
| Retrieval volume alerting | Baseline wordt vastgesteld voor retrieval-volume per gebruiker en per sessie; afwijkingen boven de drempelwaarde genereren een automatische alert | Bulk-enumeratieaanvallen; aggregatie van data door insider threats; exfiltratie via gecompromitteerde sessies | Vangt enumeratieaanvallen die per individuele query onder de alertdrempel blijven |
| Analyse van querypatronen | Gestructureerde analyse van queryinhoud en -volgorde om systematische enumeratie te identificeren — progressieve variatie van zoekwoorden, stappen in datumbereik, opeenvolgende ID-queries | Methodische corpus-enumeratie; verkenningsqueries die bulk-extractie voorafgaan | Identificeert aanvallersgedrag dat per query onschuldig lijkt, maar in aggregate duidelijk systematisch is |
| Logging van handhaving van gevoeligheidslabels | Legt vast of elke retrieval-aanvraag een beperking door gevoeligheidslabel triggerde, en welk label werd afgedwongen | Pogingen om via AI toegang te krijgen tot geclassificeerde of beperkte content die via normale kanalen geblokkeerd zou worden | Toont aan of AI wordt gebruikt om grenzen van toegangscontrole op gevoelige data te testen |
Wanneer RAG-Exfiltratie Meldingsplicht Triggert
De compliancevraag die CISO’s en compliance officers het vaakst verkeerd beantwoorden over RAG-gerelateerde incidenten is of een data access event via een AI-pijplijn dezelfde meldingsplicht triggert als een traditioneel datalek. Het antwoord, onder zowel HIPAA als GDPR, is dat ongeautoriseerde toegang tot beschermde data meldingsplicht triggert, ongeacht via welk kanaal de toegang plaatsvond. Een AI-pijplijn is geen veilige haven.
De meer operationeel relevante vraag is of de organisatie de omvang van de toegang kan bepalen — welke records zijn opgehaald, door welke sessie, over welke periode. Hier worden gaten in de RAG-audittrail een meldingsrisico. HIPAA-meldingsplicht vereist identificatie van de specifieke PHI en, waar mogelijk, de personen van wie informatie is ingezien. GDPR-melding vereist een beschrijving van de aard van het datalek, de categorieën en het geschatte aantal betrokken datarecords. Een organisatie die deze vragen niet kan beantwoorden — omdat de RAG-pijplijn alleen serviceaccounttoegang logt in plaats van per gebruiker en per document — staat voor de keuze tussen overmelden op basis van maximale scope of undermelden op basis van onvolledige data. Geen van beide is acceptabel onder deze kaders, en de compliancegevolgen van het laatste zijn ernstig.
Volledige audit logs met dubbele attributie — elke retrieval gelogd met de AI-systeemidentiteit, de geauthenticeerde gebruikersidentiteit en het specifieke opgehaalde document — vormen de basis voor accurate melding. Ze zijn ook de basis van elk verweer tegen een bevinding dat aan de meldingsplicht niet is voldaan. Een RAG-pijplijn die compliant audit logs genereert, is niet alleen een beter beveiligingsmiddel — het is een aantoonbaar bestuurbaar systeem.
Hoe Kiteworks De RAG-Retrieval-Laag Beveiligt
Het beveiligingsgat in de meeste RAG-implementaties zit niet in de AI-laag — het zit in de retrieval-laag, waar documenten worden benaderd, geëxtraheerd en doorgegeven aan de AI-context. Dat gat dichten vereist dat het retrieval-onderdeel van RAG wordt behandeld als een governed data access systeem, met dezelfde controles als elk systeem dat gevoelige bedrijfsdata op schaal verwerkt: autorisatie per verzoek, handhaving van gevoeligheidslabels, rate limiting en realtime monitoring met volledige attributie.
De Kiteworks AI Data Gateway en Private Data Network bieden een governed retrieval-laag voor RAG-pijplijnen die elk exfiltratiepad direct adresseert. RBAC en ABAC per verzoek worden afgedwongen op de retrieval-laag — niet als filter achteraf, maar als toegangsbeperking vooraf.
Voordat een document in de AI-context komt, beoordeelt de Kiteworks Data Policy Engine of de geauthenticeerde gebruiker toegang mag krijgen. Documenten die niet slagen voor die evaluatie worden niet opgehaald; ze worden niet achteraf gefilterd. Dataclassificatie-labels en gevoeligheidsbeleid worden op dezelfde laag geëvalueerd — een document met het label Restricted bereikt de AI-context nooit voor een gebruiker zonder de juiste autorisatie, ongeacht de semantische relevantie voor de query.
Rate limiting op de data gateway begrenst het retrieval-volume per gebruiker en per sessie, waardoor bulk-enumeratieaanvallen architectonisch worden beperkt in plaats van achteraf operationeel te moeten worden opgespoord. En elke retrieval-operatie — query, opgehaald document, gebruikersidentiteit, autorisatiebeslissing, tijdstempel — voedt het Kiteworks audit log en integreert realtime met SIEM, zonder batching of vertraging.
Beveiligingsteams zien elke RAG-retrieval in realtime, met de dubbele attributie — AI-systeem en menselijke gebruiker — die nodig is voor het bepalen van de omvang van een datalek en melding aan toezichthouders. Het zero trust gegevensuitwisselingsframework dat beveiligde bestandsoverdracht, managed file transfer en beveiligde e-mail in de organisatie regelt, geldt voor elke RAG-retrieval — zodat de pijplijn die je AI-assistent aandrijft wordt beheerst door dezelfde beveiligingsstatus als elk ander datakanaal, en niet als uitzondering buiten het normale gegevensbeheer valt.
Voor CISO’s en compliance officers die moeten aantonen dat hun RAG-pijplijn niet als exfiltratiekanaal kan worden gebruikt — aan hun bestuur, auditors en toezichthouders — biedt Kiteworks de governed retrieval-laag die dat aantoonbaar maakt. Wil je het in actie zien? Plan vandaag nog een demo op maat.
Veelgestelde Vragen
Authenticatie bevestigt wie de gebruiker is — het beperkt niet wat de RAG-pijplijn namens hen ophaalt. Een RAG-pijplijn die draait onder een serviceaccount met brede repository-toegang haalt documenten op op basis van relevantie van de query, niet op het autorisatieniveau van de geauthenticeerde gebruiker. Een geauthenticeerde gebruiker kan dus AI-antwoorden ontvangen die zijn gebaseerd op documenten waar hij of zij niet direct toegang toe heeft — de authenticatie vond plaats op de AI-interfacelaag, terwijl het toegangscontrolegat bestaat op de retrieval-laag. Bovendien kunnen geauthenticeerde accounts worden gecompromitteerd, en bedreigingen van binnenuit zijn per definitie geauthenticeerd. Voorkomen van exfiltratie vereist RBAC en ABAC per verzoek op de retrieval-laag, niet alleen authenticatie op de query-interface.
Indirecte prompt-injectie treedt op wanneer een aanvaller instructies inbedt in een document dat door de RAG-pijplijn wordt geïndexeerd. Wanneer een legitieme gebruikersquery ertoe leidt dat dat document wordt opgehaald, komen de ingebedde instructies samen met legitieme content in het contextvenster van de AI — en de AI kan ze uitvoeren, mogelijk andere opgehaalde documenten uitgeven, data naar externe endpoints sturen of acties uitvoeren die de gebruiker niet heeft gevraagd. Het is bijzonder gevaarlijk omdat het niet vereist dat het AI-systeem, een gebruikersaccount of toegangsgegevens worden gecompromitteerd. Het vereist alleen de mogelijkheid om een document te plaatsen in een geïndexeerde repository — een permissie die in de meeste ondernemingen is verdeeld over aannemers, leveranciers en gebruikers van samenwerkingsplatforms. Preventie van gegevensverlies op outputniveau vangt deze aanval niet; preventie vereist integriteitscontroles op de corpus en governance op de retrieval-laag.
Traditionele DLP gebruikt patroonherkenning om gestructureerde gevoelige data te identificeren — burgerservicenummers, creditcardnummers, documentfingerprints, zoekwoordpatronen. Output van een RAG-pijplijn is gesynthetiseerde natuurlijke taal waarin gevoelige content wordt geparafraseerd, samengevat of verspreid over een antwoord in plaats van in originele gestructureerde vorm. Pattern-matching DLP heeft beperkte zichtbaarheid in dit soort content. Bovendien produceert het gevaarlijkste RAG-exfiltratiepatroon — bulk-enumeratie over meerdere sessies — geen enkele query of response die een DLP-regel triggert; het gevoelige patroon is het gedragsmatige totaal over de volledige querygeschiedenis. Detectie vereist audit logs op de retrieval-laag met baseline-analyse per gebruiker en realtime SIEM-integratie, upstream van waar DLP werkt.
Filtering achteraf haalt eerst alle relevante documenten op en verwijdert vervolgens de documenten die de gebruiker niet mag zien voordat ze de AI-response bereiken. Autorisatiescoping vooraf beperkt de retrieval-operatie zelf zodat ongeautoriseerde documenten helemaal niet worden opgehaald. Het beveiligingsverschil is groot: filtering achteraf stelt ongeautoriseerde documentinhoud nog steeds bloot aan het contextvenster van de AI tijdens verwerking — ze zijn benaderd, ook al worden ze uit het eindantwoord verwijderd. Autorisatiescoping vooraf met ABAC en evaluatie van dataclassificatie-labels zorgt ervoor dat ongeautoriseerde documenten het AI-contextvenster nooit bereiken. Alleen autorisatiescoping vooraf voldoet aan de principes van dataminimalisatie die in GDPR-naleving en HIPAA-naleving zijn opgenomen.
Onder HIPAA triggert ongeautoriseerde toegang tot PHI via elk systeem — inclusief een RAG-pijplijn — meldingsplicht, tenzij de betrokken organisatie kan aantonen dat de kans op compromittering laag is. Onder GDPR moet een datalek dat waarschijnlijk risico’s voor individuen oplevert binnen 72 uur worden gemeld. Het kanaal waarlangs ongeautoriseerde toegang plaatsvond, heeft geen invloed op de meldingsplicht. Wat bepaalt of de organisatie de melding accuraat kan afbakenen — in plaats van standaard uit te gaan van maximale scope — is de kwaliteit van het audit log: specifiek of het vastlegt welke documenten zijn opgehaald, door welke geauthenticeerde sessie, en of de toegang binnen autorisatiegrenzen viel. Een RAG-pijplijn die alleen serviceaccount-logging heeft, kan een incident niet nauwkeurig afbakenen; een pijplijn met dubbele attributie per verzoek wel.
Aanvullende bronnen
- Blog Post
Zero‑Trust Strategieën voor Betaalbare AI-Privacybescherming - Blog Post
Hoe 77% van de organisaties faalt op AI-databeveiliging - eBook
AI Governance Gap: Waarom 91% van de kleine bedrijven Russisch roulette speelt met databeveiliging in 2025 - Blog Post
Er is geen “–dangerously-skip-permissions” voor jouw data - Blog Post
Toezichthouders zijn klaar met vragen of je een AI-beleid hebt. Ze willen bewijs dat het werkt.