AI-nalevingsvereisten voor producenten: wat u moet weten
De maakindustrie bevindt zich op een uniek kruispunt binnen het AI-nalevingslandschap.
Defensieproducenten moeten voldoen aan CMMC 2.0- en ITAR-nalevingsvereisten die volledig van toepassing zijn op AI-systemen die gecontroleerde technische data verwerken.
Farmaceutische en medische hulpmiddelenproducenten moeten navigeren door GxP-naleving en 21 CFR Part 11-validatiestandaarden voor AI in gereguleerde productieomgevingen.
Automotive- en luchtvaartproducenten die in Europa opereren, hebben te maken met NIS 2-verplichtingen en TISAX-informatiebeveiligingsvereisten.
En vrijwel elke grote producent krijgt te maken met ISO 27001 en blootstelling aan exportcontrole die door AI-inzet kan worden gecompromitteerd.
Wat AI-naleving in de maakindustrie bijzonder veeleisend maakt, is dat deze kaders zich opstapelen. Een defensie-luchtvaartproducent kan tegelijkertijd te maken krijgen met CMMC, ITAR, NIS 2, TISAX en GxP. AI-systemen in die omgeving moeten aan al deze vereisten voldoen.
Samenvatting voor het management
Belangrijkste idee: AI-naleving in de maakindustrie is sectorspecifiek en gestapeld: defensieproducenten krijgen te maken met CMMC en ITAR; gereguleerde producenten met GxP en 21 CFR Part 11; Europese producenten met NIS 2 en TISAX; en vrijwel iedereen met ISO 27001 en AI-risico’s in de toeleveringsketen. De gemeenschappelijke vereiste is governance op dataniveau: geauthenticeerde AI-toegang, toegangsbeleid op operationeel niveau, gevalideerde encryptie en manipulatiebestendige audittrails.
Waarom dit relevant is: AI-systemen die toegang hebben tot gecontroleerde technische data, kwaliteitsdossiers of eigendomsontwerpen zonder voldoende governance, creëren tegelijkertijd aansprakelijkheid voor exportcontrole, CMMC-certificeringsrisico, GxP-inspectiebevindingen en IP-risico’s in de toeleveringsketen. De gevolgen variëren van contractverlies en ITAR-strafrechtelijke sancties tot FDA-consentdecreten en diskwalificatie van klanten.
Belangrijkste inzichten
- CMMC en ITAR zijn volledig van toepassing op AI in defensieproductie — AI die CUI of ITAR-gecontroleerde technische data verwerkt, activeert elke toegangscontrole-, audit- en encryptieverplichting die ook geldt voor menselijke medewerkers die met dezelfde data werken.
- GxP’s CSV-vereisten gelden voor AI in farmaceutische en medische hulpmiddelenproductie — AI die gereguleerde productiedossiers genereert, wijzigt of verwerkt, moet gevalideerd zijn vóór gebruik en beheerd worden onder change control.
- TISAX en NIS 2 stellen AI-governancevereisten aan automotive en kritieke EU-producenten — AI-systemen die gevoelige leveranciers- of klantdata verwerken in TISAX-omgevingen moeten voldoen aan TISAX-beoordelingscriteria.
- AI in de toeleveringsketen is het minst aangepakte governance-gat in de maakindustrie — AI in inkoop, leverancierskwalificatie en logistieke workflows verwerkt gevoelige derde-partijdata zonder de controles of audittrails die toeleveringsketenbeveiliging vereist.
- ISO 27001 biedt een nuttige basis voor producenten zonder sectorspecifieke AI-kaders maar moet worden uitgebreid met AI-specifieke controles om te voldoen aan de relevante toegangscontrole-, audit- en encryptieverplichtingen.
Het AI-nalevingslandschap in de maakindustrie
CMMC 2.0 en NIST SP 800-171. Defensieproducenten en partners in de toeleveringsketen die CUI of FCI verwerken, vallen onder CMMC-vereisten — de CMMC Final Rule geldt voor de gehele DIB-toeleveringsketen, niet alleen voor hoofdaannemers. Een Tier 2- of Tier 3-leverancier die onderdelen produceert onder een contract van een defensiehoofdaannemer valt binnen de scope als hun werk CUI omvat. AI-systemen die technische tekeningen, productspecificaties of kwaliteitsdossiers met CUI verwerken, moeten voldoen aan alle 110 NIST 800-171-praktijken. C3PAO-beoordelingen onderzoeken AI-governance als onderdeel van Level 2-certificering.
ITAR en EAR. ITAR-naleving reguleert defensiegoederen en technische data op de U.S. Munitions List; EAR reguleert dual-use items. AI-systemen die gecontroleerde technische data verwerken, creëren exportcontrolerisico: als die data via commerciële AI-infrastructuur wordt geleid die niet onder controle van een U.S.-persoon valt, of als verwerking plaatsvindt waardoor sprake is van een deemed export naar niet-U.S.-personen (zoals medewerkers van de AI-leverancier), is een licentie of uitzondering vereist. De meeste producenten hebben nog geen ITAR/EAR-blootstellingsanalyse uitgevoerd voor het gebruik van AI-tools, terwijl dit risico dat wel vereist.
GxP en 21 CFR Part 11. Farmaceutische producenten, CDMO’s en medische hulpmiddelenproducenten onder GxP-naleving moeten Computer System Validation toepassen op AI in gereguleerde omgevingen — zoals productie-executiesystemen, kwaliteitsmanagementplatforms en laboratoriumsystemen. CSV vereist gedocumenteerde gebruikersvereisten, IQ/OQ/PQ-protocollen en change control voor AI-updates. 21 CFR Part 11 voegt elektronische dossier- en handtekeningvereisten toe, inclusief audittrails die aanmaak, wijziging en verwijdering vastleggen met gebruikersidentiteit en tijdstempel. FDA-inspecties onderzoeken actief CSV-naleving bij AI-ondersteunde productiesystemen.
TISAX. De Trusted Information Security Assessment Exchange is de standaard in de automotive industrie, gebruikt door BMW, Mercedes-Benz, Volkswagen Group en anderen om leveranciersinformatiebeveiliging te beoordelen. Automotive producenten en Tier 1/Tier 2-leveranciers met TISAX-beoordelingen die gevoelige OEM-data verwerken — ontwerpbestanden, prototypedata, voertuigspecificaties — moeten AI-datatoegang meenemen in hun beoordelingsscope en voldoen aan TISAX-toegangsbeheer, logging en encryptieverplichtingen.
NIS 2 en ISO 27001. De NIS 2-richtlijn geldt voor EU-producenten in kritieke en belangrijke sectoren — energie, transport, voedsel, chemie, defensie. AI in NIS 2-omgevingen moet worden meegenomen in risicobeoordelingen voor cyberbeveiliging, inclusief toegangscontroles, beveiliging van de toeleveringsketen en auditmogelijkheden. ISO 27001-naleving biedt een basis voor informatiebeveiliging die veel producenten toepassen voor AI-governance — Annex A-controles op toegangsbeheer, cryptografie en auditlogging zijn direct van toepassing op AI-datatoegang, maar moeten worden uitgebreid met AI-specifieke implementatierichtlijnen.
| Kader | Sector | AI-trigger | Belangrijkste vereiste |
|---|---|---|---|
| CMMC 2.0 / NIST 800-171 | Defensieproductie (DIB) | AI die CUI of FCI verwerkt | Volledige implementatie van 110 praktijken; toegangscontroles op operationeel niveau; FIPS-encryptie; manipulatiebestendige auditlogs; C3PAO-beoordeling |
| ITAR / EAR | Defensie- en dual-use productie | AI die gecontroleerde technische data verwerkt | Geen ongeautoriseerde export; infrastructuurcontrole door U.S.-persoon; toegangsbeperkingen voor niet-U.S.-personen; licentie of uitzondering vereist |
| GxP / 21 CFR Part 11 | Farmaceutische en medische hulpmiddelenproductie | AI in gereguleerde productie- of kwaliteitsomgevingen | Computer System Validation; integriteit van elektronische dossiers en handtekeningen; audittrails voor gereguleerde dossiers; change control voor AI-updates |
| TISAX | Automotive productie en toeleveringsketen | AI die beoordeelde informatie verwerkt in TISAX-omgevingen | TISAX-beoordelingscriteria inclusief toegangsbeheer, logging en encryptie voor door AI verwerkte gevoelige data |
| NIS 2 | Kritieke en belangrijke EU-producenten | AI in NIS 2-omgevingen voor productie | Risicobeheer cyberbeveiliging; AI-governance in de toeleveringsketen; toegangscontroles; incidentafhandeling; auditmogelijkheden |
| ISO 27001 | Alle productiesectoren | AI die gevoelige operationele of commerciële data verwerkt | Annex A-toegangscontrole, cryptografie, operationele beveiliging en auditcontroles uitgebreid naar AI-datatoegang |
Waar AI de grootste nalevingsgaten veroorzaakt in de maakindustrie
AI die gecontroleerde technische data verwerkt zonder exportcontroleanalyse. Het meest ingrijpende nalevingsgat in defensie- en dual-use productie: AI-tools die worden gebruikt om ITAR- of EAR-gecontroleerde technische data te verwerken, samen te vatten, analyseren of genereren zonder een exportcontroleanalyse. Het specifieke risico is het deemed export-beginsel — als een commerciële AI-tool gecontroleerde technische data verwerkt op infrastructuur die toegankelijk is voor niet-U.S.-personen (inclusief niet-U.S.-medewerkers van de cloudprovider van de AI-leverancier), dan is dat een ongeautoriseerde export. De meeste producenten hebben niet geïnventariseerd welke AI-tools gecontroleerde technische data verwerken of deze tools beoordeeld op ITAR/EAR-naleving. Gezien de strafrechtelijke sancties voor ITAR-overtredingen en de mogelijkheid tot uitsluiting van defensiecontracten, is dit het AI-nalevingsgat met de hoogste prioriteit voor defensieproducenten.
CUI die AI-agents raakt in de DIB-toeleveringsketen zonder CMMC-controles. Producenten in de defensietoeleveringsketen — Tier 2- en Tier 3-leveranciers die technische tekeningen, kwaliteitsspecificaties of programmadocumentatie van hoofdaannemers verwerken — zetten vaak AI in hun ontwerp-, engineering- of kwaliteitsmanagementworkflows in zonder te beseffen dat de data die deze workflows verwerken CUI bevat. Volgens CMMC moet elke organisatie die CUI verwerkt, volledige NIST 800-171-controles implementeren, ongeacht het contractniveau. Een AI-ondersteund CAD-systeem, kwaliteitsanalysetool of documentmanagementplatform dat defensietekeningen verwerkt zonder ABAC-handhaving, FIPS 140-3 Level 1 gevalideerde encryptie en auditlogs op operationeel niveau, creëert CMMC-nalevingsrisico dat mogelijk niet in kaart is gebracht door de certificerende organisatie.
GxP-validatiegaten voor AI in productieomgevingen. Farmaceutische en medische hulpmiddelenproducenten die AI hebben ingezet in productie-executiesystemen, kwaliteitsmanagementplatforms of laboratoriumsystemen — zonder deze systemen aan CSV-validatie te onderwerpen — lopen risico bij FDA-inspecties. GxP-inspecteurs onderzoeken actief computer system validation voor AI-ondersteunde productiesystemen, en de bevindingen voor niet-gevalideerde AI in gereguleerde omgevingen variëren van 483-observaties tot waarschuwingsbrieven. De specifieke validatie-uitdaging voor AI: definiëren wat een systeemwijziging is die her-validatie vereist wanneer modelgedrag verandert naarmate productiedata toeneemt, en change control-processen implementeren die AI-modelupdates als formele systeemwijzigingen vastleggen.
AI in de toeleveringsketen zonder governance van toeleveringsketendata. AI-tools die worden gebruikt in inkoop, leverancierskwalificatie, logistiek en supply chain analytics hebben routinematig toegang tot gevoelige derde-partijdata — leverancierskwaliteitsdossiers, prijsinformatie, ontwerpspecificaties, klantleveringsafspraken — zonder de toegangscontroles of audittrails die beveiliging van de toeleveringsketen vereist. Dit gat zorgt voor blootstelling onder CMMC (als supply chain-data CUI bevat), TISAX (als leveranciersdata automotive klantinformatie bevat), NIS 2 (als supply chainsystemen binnen scope vallen) en ISO 27001 tegelijk. AI-governance in de toeleveringsketen is consequent het laatste domein dat producenten aanpakken in hun AI-nalevingsprogramma’s, en vaak het domein met de breedste datablootstelling.
AI in kwaliteitssystemen die niet-gevalideerde recordketens creëren. AI geïntegreerd in kwaliteitsmanagementsystemen — voor het detecteren van afwijkingen, aanbevelingen voor corrigerende maatregelen, leverancierskwaliteitsanalyse of optimalisatie van productierendement — genereert dossiers en beïnvloedt beslissingen die in GxP- en ISO 9001-omgevingen traceerbaar, controleerbaar en beheerst moeten zijn. Wanneer AI bijdraagt aan een kwaliteitsbeslissing zonder een toewijsbare, manipulatiebestendige registratie van zijn rol achter te laten, wordt de kwaliteitsrecordketen onderbroken — wat zowel nalevingsrisico als operationeel risico oplevert als de beslissing later wordt betwist in een klantenaudit, regelgevende inspectie of productaansprakelijkheidsprocedure.
Welke Data Compliance Standards zijn relevant?
Lees nu
Opkomende AI-specifieke richtlijnen voor producenten
DoD AI in de industriële defensiebasis. Het DoD heeft richtlijnen gepubliceerd voor verantwoord AI-gebruik bij defensieaankopen en via CMMC-handhaving aangegeven dat AI-governance in de DIB met dezelfde grondigheid wordt beoordeeld als controles op door mensen bediende systemen. Hoofdaannemers leggen AI-governancevereisten steeds vaker contractueel op aan leveranciers via contractwijzigingen en leverancierskwaliteitsafspraken — waardoor proactieve AI-naleving een kwalificatie-eis in de toeleveringsketen wordt, naast een wettelijke verplichting.
FDA AI in productie. De FDA heeft concept-richtlijnen gepubliceerd voor AI-gebruik in farmaceutische productie, waarbij wordt erkend dat AI-ondersteunde process analytical technology, real-time release testing en adaptieve productiecontrolesystemen nieuwe regelgevingsvragen oproepen. De richtlijn geeft aan dat AI in GMP-omgevingen zal worden beoordeeld op bestaande Part 11- en CSV-standaarden, terwijl aanvullende AI-specifieke verwachtingen worden ontwikkeld. Producenten die AI inzetten in productie- of kwaliteitssystemen dienen deze richtlijnen nauwlettend te volgen.
EU Cyber Resilience Act en implementatie van NIS 2. De EU wet cyberweerbaarheid — van toepassing op verbonden producten en digitale elementen die in de EU worden verkocht — vereist dat AI-ondersteunde producten gedurende hun hele levenscyclus voldoen aan cyberbeveiligingsvereisten, inclusief toegangscontroles en auditmogelijkheden. Voor producenten die AI-ondersteunde industriële apparatuur of producten ontwikkelen voor de EU-markt, vereist CRA-naleving AI-governancedocumentatie als onderdeel van het technisch dossier van het product, waardoor een AI-nalevingsverplichting op productniveau ontstaat naast de organisatorische NIS 2-vereisten.
Een compliant AI-programma opzetten voor de maakindustrie
De onderliggende governancevereisten komen neer op dezelfde technische controles voor CMMC, ITAR, GxP, TISAX en NIS 2. Eén governance-architectuur op dataniveau — geauthenticeerde AI-toegang, toegangsbeleid op operationeel niveau, gevalideerde encryptie en manipulatiebestendige audittrails — voldoet aan de bewijsstandaard van alle relevante kaders.
Voer een inventarisatie van gecontroleerde data uit vóór elke AI-inzet. Voordat een AI-tool wordt ingezet, identificeer je elke categorie gecontroleerde data die die workflow kan bereiken: CUI, ITAR-gecontroleerde technische data, beschermde informatie over defensie, GxP-gereguleerde dossiers, TISAX-beoordeelde informatie, klant-eigendomsdata. Deze inventarisatie bepaalt welke kaders van toepassing zijn en welke controles vereist zijn. AI die zonder deze stap wordt ingezet, creëert vrijwel altijd nalevingsrisico in categorieën die de implementerende organisatie niet heeft overwogen.
Pas toegangscontroles op operationeel niveau toe op AI-agents. ABAC-handhaving op operationeel niveau — waarbij de toegang van elke agent wordt beperkt op basis van het geauthenticeerde profiel, de classificatie van de data en de context van het verzoek — voldoet gelijktijdig aan de toegangscontrolevereisten van CMMC, ITAR, GxP en TISAX. Toestemmingen op map- of systeemniveau zijn niet voldoende; beperking op operationeel niveau is de standaard binnen alle relevante kaders.
Valideer AI-systemen in GxP-omgevingen onder je CSV-kader. Elk AI-systeem in een gereguleerde productieomgeving moet onderworpen zijn aan Computer System Validation — gedocumenteerde IQ/OQ/PQ-protocollen en voortdurende change control waarbij AI-modelupdates als formele systeemwijzigingen worden vastgelegd. GxP-naleving voor AI is het toepassen van bestaande CSV-principes op een nieuwe systeemcategorie, geen nieuwe standaard.
Implementeer FIPS-gevalideerde encryptie voor alle door AI verwerkte gecontroleerde data. FIPS 140-3 Level 1 gevalideerde encryptie tijdens transport en in rust voldoet gelijktijdig aan CMMC SC.3.177, ITAR-infrastructuurvereisten en federale normen voor gegevensbescherming. Standaard TLS is niet voldoende voor CUI of ITAR-gecontroleerde technische data.
Onderhoud manipulatiebestendige audittrails voor AI-interacties met gecontroleerde data. Auditlogs op operationeel niveau die elke AI-agentactie toewijzen aan een geauthenticeerde identiteit en menselijke autorisator — en die je SIEM voeden — voldoen gelijktijdig aan CMMC AU.2.041/AU.2.042, GxP Part 11-audittrailvereisten en ISO 27001-loggingscontroles.
Voer een ITAR/EAR-blootstellingsanalyse uit voor elke AI-tool die technische data verwerkt. Voor defensie- en dual-use producenten is een ITAR/EAR-analyse van elke AI-tool die toegang heeft tot gecontroleerde technische data een nalevingsvereiste. Deze analyse moet dataroutinginfrastructuur, nationaliteit van leverancierpersoneel en of verwerking een deemed export vormt, beoordelen. Raadpleeg exportcontrolejuristen. De strafrechtelijke sancties voor ITAR-overtredingen zijn te zwaar om deze analyse uit te stellen.
Kiteworks Compliant AI: Ontworpen voor de nalevingsomgeving van de maakindustrie
Producenten hebben AI-governance nodig die voldoet aan de specifieke bewijsstandaarden die CMMC-beoordelaars, FDA-inspecteurs, TISAX-auditors en DoD-programmafunctionarissen zullen toetsen — niet generieke nalevingstools die deze standaarden slechts benaderen.
Kiteworks compliant AI levert deze governance binnen het Private Data Network, op het dataniveau, vóórdat een AI-agent interactie heeft met gecontroleerde productiedata. Elke AI-agent wordt geauthenticeerd met een identiteit gekoppeld aan een menselijke autorisator, waarmee wordt voldaan aan CMMC-identificatie- en authenticatievereisten en GxP-standaarden voor elektronische handtekeningen. ABAC-beleid handhaaft least privilege op operationeel niveau, waarmee gelijktijdig wordt voldaan aan CMMC AC.1.001/AC.1.002, ITAR-toegangsbeperkingen en TISAX-toegangsbeheercontroles. FIPS 140-3 Level 1 gevalideerde encryptie beschermt CUI, ITAR-gecontroleerde data en GxP-gereguleerde dossiers tijdens transport en in rust. Een manipulatiebestendige audittrail per interactie voedt je SIEM, waarmee gelijktijdig wordt voldaan aan CMMC AU.2.041/AU.2.042, GxP Part 11-audittrailvereisten en ISO 27001-loggingscontroles in één doorlopend record. Kiteworks dekt bijna 90% van de CMMC Level 2-vereisten out-of-the-box — waardoor defensieproducenten een aanzienlijke voorsprong hebben op de C3PAO-beoordeling die steeds vaker vereist is voor contracttoekenning. Neem contact met ons op om te ontdekken hoe Kiteworks AI-naleving ondersteunt voor producenten binnen jouw volledige regelgevingsstack.
Veelgestelde vragen
Ja. CMMC 2.0 is van toepassing op elke organisatie in de DIB-toeleveringsketen die CUI of FCI verwerkt — ongeacht het contractniveau. Een Tier 2-leverancier die bewerkte onderdelen produceert onder een subcontract van een hoofdaannemer valt binnen de CMMC-scope als het werk technische tekeningen of specificaties met CUI bevat. Hoofdaannemers zijn verplicht CMMC-vereisten door te geven aan onderaannemers die werken met CUI. Tier 2- en Tier 3-producenten die hun CUI-verwerking niet hebben beoordeeld — inclusief CUI die door AI wordt verwerkt in ontwerp-, engineering- en kwaliteitsworkflows — lopen nalevingsrisico dat kan leiden tot verwijdering uit contractuitvoering. Een CMMC-gap-analyse inclusief AI-datatoegangspaden naar CUI is het juiste startpunt.
ITAR beperkt de export van defensiegoederen en technische data naar buitenlandse personen zonder licentie of uitzondering. Het deemed export-beginsel breidt dit uit naar overdrachten binnen de Verenigde Staten aan buitenlandse staatsburgers. Het gebruik van een commerciële AI-tool om ITAR-gecontroleerde technische data te verwerken kan een ongeautoriseerde export zijn als de tool deze data verwerkt via infrastructuur die toegankelijk is voor niet-U.S.-personen — inclusief cloudinfrastructuur beheerd door buitenlandse entiteiten of medewerkers van de AI-leverancier die niet-U.S.-persoon zijn. Defensieproducenten moeten elke AI-tool die wordt gebruikt in workflows met gecontroleerde technische data beoordelen op ITAR-naleving vóór inzet, met betrokkenheid van exportcontrolejuristen gezien de strafrechtelijke sancties en mogelijke uitsluiting.
GxP CSV vereist gedocumenteerd bewijs dat AI geschikt is voor het beoogde doel en deze geschiktheid in de tijd behoudt. Dit betekent: gedocumenteerde gebruikersvereisten; installatiekwalificatie; operationele kwalificatie onder normale en grensvoorwaarden; en prestatiekwalificatie onder productieomstandigheden. Naast initiële validatie vereist change control dat AI-modelupdates worden beoordeeld, gedocumenteerd en mogelijk opnieuw gevalideerd vóór inzet. AI-systemen die zich aanpassen tijdens het verwerken van productiedata brengen specifieke CSV-uitdagingen met zich mee — producenten moeten vóór inzet definiëren wat een validatieplichtige wijziging is, niet pas na een FDA-inspectie.
TISAX is de informatiebeveiligingsbeoordelingsstandaard van de automotive industrie, gebruikt door OEM’s als BMW, Mercedes-Benz en Volkswagen Group om de beveiligingsstatus van leveranciers te evalueren. Automotive producenten en Tier 1/Tier 2-leveranciers die gevoelige OEM-data verwerken — prototypedata, ontwerpbestanden, voertuigspecificaties — moeten doorgaans TISAX-beoordelingen hebben als voorwaarde voor leverancierskwalificatie. AI-systemen die TISAX-beoordeelde informatie verwerken, moeten voldoen aan TISAX-controlevereisten zoals toegangsbeheer, logging en encryptie. Leveranciers die niet slagen voor TISAX-beoordelingen lopen risico op diskwalificatie uit OEM-toeleveringsketens — een commercieel gevolg dat de impact van andere nalevingsfouten kan overtreffen.
AI-governance in de toeleveringsketen vereist dezelfde fundamentele controles als elk ander AI-domein in de maakindustrie — maar met de extra complexiteit dat supply chain-workflows derde-partijdata van leveranciers, klanten en logistieke partners omvatten die onder hun eigen contractuele en wettelijke bescherming vallen. Beoordeel supply chain AI aan de hand van alle relevante kaders (CMMC als supply chain-data CUI bevat; TISAX als automotive klantdata; NIS 2 als EU-operaties binnen scope vallen) en implementeer ABAC-controles die AI-agents beperken tot de specifieke datafields die elke functie nodig heeft. GRC-programma’s moeten AI-governance in de toeleveringsketen als een apart werkstroom behandelen — de blootstelling van derde-partijdata door supply chain AI is vaak groter dan de interne blootstelling van productie-AI.
Aanvullende bronnen
- Blog Post
Zero‑Trust Strategieën voor betaalbare AI-privacybescherming - Blog Post
Hoe 77% van de organisaties faalt in AI-databeveiliging - eBook
AI Governance Gap: Waarom 91% van de kleine bedrijven Russisch roulette speelt met databeveiliging in 2025 - Blog Post
Er is geen “–dangerously-skip-permissions” voor jouw data - Blog Post
Toezichthouders zijn klaar met vragen of je een AI-beleid hebt. Ze willen bewijs dat het werkt.