Nieuw Privacy Stappenplan: Wat Cisco's 2026 Data en Privacy Benchmark Studie Onthult Over AI-gedreven Gegevensbeheer

Nieuw Privacy Stappenplan: Wat Cisco’s 2026 Data en Privacy Benchmark Studie Onthult Over AI-gedreven Gegevensbeheer

De uitgaven aan privacy zijn geëxplodeerd. Organisaties vinken niet langer alleen de nalevingsvakjes af—ze bouwen complete governance-ecosystemen rondom kunstmatige intelligentie, en de cijfers vertellen een opmerkelijk verhaal.

Cisco’s recent gepubliceerde 2026 Data and Privacy Benchmark Study ondervroeg meer dan 5.200 IT- en beveiligingsprofessionals in 12 wereldwijde markten, en de bevindingen schetsen een beeld van een sector in transformatie. Alleen al het belangrijkste cijfer wijst op een enorme verschuiving: 38% van de organisaties besteedt nu jaarlijks $5 miljoen of meer aan privacyprogramma’s, tegenover slechts 14% het jaar ervoor. Dat is geen incrementele groei. Dat is een fundamentele herdefiniëring van wat privacy betekent voor moderne ondernemingen.

Maar het echte verhaal draait niet om budgetten. Het gaat om waarom die budgetten zo sterk groeien—en wat dat betekent voor elke organisatie die zich begeeft op het snijvlak van gegevensbescherming en kunstmatige intelligentie.

Belangrijkste Bevindingen

1. Privacy-uitgaven zijn bijna verdrievoudigd op jaarbasis

Het percentage organisaties dat jaarlijks $5 miljoen of meer investeert in privacyprogramma’s steeg van 14% naar 38% in slechts één jaar. Deze sterke toename weerspiegelt het groeiende besef dat AI-systemen een robuuste gegevensbeheer-infrastructuur vereisen om effectief te functioneren en het vertrouwen van belanghebbenden te behouden.

2. AI heeft de reikwijdte van privacyprogramma’s fundamenteel vergroot

Negen van de tien organisaties geven aan dat hun privacyprogramma’s specifiek zijn uitgebreid door de adoptie van kunstmatige intelligentie. Bijna de helft noemt deze uitbreiding significant in plaats van incrementeel, wat duidt op een volledige herziening van de verantwoordelijkheden van privacyteams.

3. Governance-volwassenheid blijft ver achter bij governance-ambitie

Hoewel 75% van de organisaties AI-governancecommissies heeft opgezet, beoordeelt slechts 12% deze commissies als volwassen en proactief. Deze kloof tussen het creëren van governance-structuren en het daadwerkelijk effectief maken ervan vormt een van de grootste uitdagingen voor privacy- en technologieleiders.

4. Problemen met datakwaliteit bedreigen het succes van AI-implementaties

Bijna tweederde van de organisaties worstelt met het efficiënt verkrijgen van relevante, hoogwaardige data voor hun AI-initiatieven. In combinatie met het feit dat 77% bescherming van intellectueel eigendom van AI-datasets als topprioriteit ziet, is data management uitgegroeid tot een cruciale bottleneck voor verantwoorde AI-inzet.

5. Transparantie is nu belangrijker dan naleving voor klantvertrouwen

Gevraagd naar wat het meeste bijdraagt aan klantvertrouwen, koos 46% van de organisaties voor duidelijke communicatie over datagebruik—veel meer dan naleving van privacywetgeving (18%) of het voorkomen van datalekken (14%). Organisaties die hun datagebruik helder uitleggen, bouwen sterkere klantrelaties dan organisaties die zich alleen richten op het vermijden van problemen.

Waarom AI alles heeft veranderd op het gebied van privacy

Jarenlang opereerden privacyteams in een relatief voorspelbaar universum. Regelgeving zoals de GDPR stelde duidelijke grenzen. Naleving betekende het documenteren van datastromen, reageren op inzageverzoeken en het onderhouden van procedures voor meldingen van datalekken. Belangrijk werk, zeker, maar wel afgebakend werk.

Kunstmatige intelligentie heeft die grenzen doorbroken.

Uit het onderzoek blijkt dat 90% van de organisaties hun privacyprogramma’s specifiek heeft uitgebreid vanwege AI. Dat is niet verrassend als je kijkt naar wat AI-systemen daadwerkelijk nodig hebben. Het trainen van machine learning-modellen vraagt om enorme datasets. Generatieve AI-tools verwerken gebruikersinvoer op manieren die nieuwe privacyvraagstukken oproepen. Agentische systemen—die autonoom kunnen handelen—brengen verantwoordelijkheidsvragen met zich mee die traditionele privacykaders nooit hebben voorzien.

Wat vooral opvalt is hoe organisaties deze uitbreiding ervaren. Bijna de helft (47%) meldt dat AI hun privacymandaat significant heeft uitgebreid, niet alleen aangepast. Nog eens 43% noemt de uitbreiding matig. Slechts 9% zegt dat hun privacyprogramma’s onveranderd zijn gebleven door de opkomst van AI.

Dit is meer dan een uitbreiding van het takenpakket. Het is een fundamentele herdefiniëring van wat privacyteams doen en waarom ze bestaan.

Je vertrouwt erop dat je organisatie veilig is. Maar kun je het verifiëren?

Lees nu

De investeringsgolf en de gevolgen ervan

De sprong van 14% naar 38% van de organisaties die minstens $5 miljoen aan privacy besteden, verdient nadere beschouwing. Als meer dan een derde van de bedrijven deze uitgavengrens bereikt, is er structureel iets veranderd in de waardering van gegevensbescherming.

Verschillende factoren drijven deze investeringsgolf. Ten eerste erkennen organisaties dat AI-systemen een governance-infrastructuur vereisen die voorheen simpelweg niet bestond. Je kunt een generatieve AI-tool niet verantwoord inzetten zonder te weten waar de trainingsdata vandaan komt, wie de eigenaar is en hoe gebruikersinvoer wordt verwerkt of opgeslagen. Dat inzicht vraagt om mensen, processen en technologie—en dat kost geld.

Ten tweede blijft de druk vanuit regelgeving toenemen. Het onderzoek meldt dat 93% van de organisaties van plan is om de komende twee jaar extra middelen toe te wijzen aan ten minste één gebied van privacy en gegevensbeheer. Deze vooruitziende investering weerspiegelt de verwachting dat nieuwe AI-specifieke regelgeving de bestaande privacykaders zal aanvullen.

Ten derde, en misschien wel het belangrijkst, hebben organisaties ontdekt dat investeren in privacy daadwerkelijk loont. Uit het onderzoek blijkt dat 99% van de organisaties ten minste één tastbaar voordeel ervaart van hun privacy-initiatieven. Dit zijn geen vage claims over een “betere nalevingsstatus”. Respondenten noemen concrete resultaten: 96% meldt dat verbeterde datacontroles hebben geleid tot meer wendbaarheid en innovatie, 95% heeft sterker klantvertrouwen en loyaliteit opgebouwd, en nog eens 95% heeft operationele efficiëntie bereikt door betere data-organisatie.

De governance-volwassenheidskloof

Hier brengt het onderzoek minder goed nieuws. Hoewel driekwart van de organisaties AI-governancecommissies heeft opgezet, omschrijft slechts 12% deze commissies als volwassen en proactief. De overige 88% zoekt nog naar manieren om governance operationeel te maken.

Deze kloof tussen ambitie en uitvoering weerspiegelt bevindingen uit Cisco’s AI Readiness Index, die consequent laat zien dat organisaties wel weten wat ze moeten doen, maar nog niet over de benodigde infrastructuur beschikken. Het opzetten van een governancecommissie is een noodzakelijke eerste stap, maar commissies alleen genereren geen beleid, handhaven geen standaarden en creëren geen verantwoordelijkheid.

De samenstelling van deze governanceorganen verklaart deels de uitdaging. IT- en technologieafdelingen voeren de boventoon met 57%, gevolgd door cyberbeveiliging (42%) en juridisch/risico/naleving (35%). Productteams? Slechts 8% vertegenwoordiging. Engineering? 16%. Als de mensen die AI-systemen bouwen weinig inspraak hebben in het bestuur ervan, raakt governance losgezongen van de ontwikkelrealiteit.

Organisaties die deze kloof aanpakken, bewegen richting crossfunctionele governancemodellen waarin niet alleen IT en juridisch, maar ook productmanagers, data scientists en business unit-leiders zijn vertegenwoordigd. Deze bredere samenstelling zorgt ervoor dat governancekaders zowel technische beperkingen als bedrijfsdoelstellingen weerspiegelen.

Datakwaliteit: het verborgen obstakel

Misschien wel de meest ingrijpende bevinding van het onderzoek betreft datakwaliteit. Bijna zeven op de tien organisaties (65%) melden aanhoudende moeite met het efficiënt verkrijgen van relevante, hoogwaardige data. Aangezien AI-systemen slechts zo goed zijn als de data die ze gebruiken, vormt dit een cruciale bottleneck.

Het probleem is niet alleen dat data verspreid is opgeslagen—al is dat zeker het geval. Het is vooral dat veel van deze data de classificatie, tagging en documentatie mist die AI-ontwikkeling vereist. Uit het onderzoek blijkt dat 66% van de organisaties een systeem voor datatagging heeft, maar slechts 51% noemt hun aanpak volledig dekkend. De rest vertrouwt op beperkte tagging (33%), tagging door klanten (10%) of ad-hoc handmatige processen (1%).

Voor AI-toepassingen levert onvolledige tagging echte problemen op. Modellen die getraind zijn op slecht geclassificeerde data kunnen onbedoeld persoonlijke informatie meenemen die uitgesloten had moeten worden. Systemen kunnen uitkomsten produceren die ongeautoriseerd gebruikmaken van vertrouwelijke informatie. En als er iets misgaat, is het lastig te achterhalen welke data welke beslissingen heeft beïnvloed.

Bescherming van intellectueel eigendom versterkt deze zorgen. Meer dan driekwart (77%) van de organisaties ziet IP-bescherming van AI-datasets als een van de grootste governance-uitdagingen. Dit weerspiegelt het groeiende besef dat trainingsdata zelf aanzienlijke waarde én risico vertegenwoordigt als het verkeerd wordt beheerd.

De datalokalisatie-druk

Eisen rondom datalokalisatie zijn een bepalende uitdaging geworden voor multinationals, en het onderzoek van dit jaar kwantificeert hoe belastend deze eisen zijn geworden.

Vijfentachtig procent van de organisaties zegt dat datalokalisatie extra kosten, complexiteit en risico toevoegt aan grensoverschrijdende dienstverlening. De impact is nog groter voor wereldwijde bedrijven dan voor organisaties die zich op één markt richten. Wereldwijde organisaties rapporteren hogere nalevingskosten (77% versus 63%), infrastructuurverdubbeling (72% versus 59%) en tragere inzet (67% versus 56%).

Deze cijfers staan voor echte operationele vertraging. Als een organisatie in meerdere rechtsbevoegdheden aparte datainfrastructuur moet onderhouden, verliest ze schaalvoordelen. Als data niet vrij kan stromen naar waar de rekenkracht het meest efficiënt is, vertragen systemen. Als compliance-teams tientallen verschillende regelgevingen moeten navigeren, verschuiven middelen van innovatie naar administratie.

De AI-component versterkt de druk van datalokalisatie. Uit het onderzoek blijkt dat 78% van de organisaties hogere lokalisatiekosten rapporteert specifiek door AI-ontwikkelingen, terwijl 81% een toegenomen vraag naar lokalisatie ziet door generatieve en agentische AI-modellen. Dat is logisch: AI-systemen vereisen vaak enorme rekenkracht die organisaties willen centraliseren, maar lokalisatieregels kunnen verhinderen dat de benodigde data landsgrenzen passeert.

Opvallend is dat de perceptie van lokale dataopslag en beveiliging langzaam verandert. In 2025 associeerde 90% van de respondenten lokale opslag met betere beveiliging. Dit jaar is dat gedaald naar 86%. Hoewel het nog steeds een ruime meerderheid is, suggereert de daling dat men zich steeds meer realiseert dat beveiliging om meer draait dan fysieke locatie—en dat goed beheerde wereldwijde infrastructuur robuuste bescherming kan bieden, ongeacht waar data fysiek staat.

Transparantie als concurrentievoordeel

Vraag privacyprofessionals wat klantvertrouwen opbouwt, en je zou verwachten dat ze wijzen op bescherming tegen datalekken of naleving van regelgeving. Het onderzoek laat een andere rangorde zien.

Toen organisaties acties rangschikten die het meest bijdragen aan klantvertrouwen, koos 46% voor “duidelijke informatie geven over hoe data wordt verzameld en gebruikt”. Naleving van privacywetgeving kwam op de tweede plaats met 18%, gevolgd door het voorkomen van datalekken met 14%. Klanten de mogelijkheid geven om privacy-instellingen te configureren eindigde onderaan met slechts 6%.

Deze bevinding heeft grote gevolgen. Organisaties gaan er vaak van uit dat goed omgaan met privacy het belangrijkst is—data veilig houden, regels volgen, risico’s minimaliseren. Het onderzoek suggereert dat communiceren over privacy net zo belangrijk is. Klanten willen begrijpen wat er met hun informatie gebeurt, en organisaties die dit helder uitleggen bouwen sterkere relaties dan organisaties die alleen problemen proberen te vermijden.

De markt reageert. Meer dan de helft (55%) van de organisaties biedt nu interactieve dashboards waarmee gebruikers hun data realtime kunnen inzien of beheren. De helft verwerkt transparantiebeloften direct in contracten. Dit zijn geen leuke extra’s meer; ze worden een basisvoorwaarde voor klantrelaties.

Hoe governancemodellen zich ontwikkelen

Tussen 2025 en 2026 zijn organisaties duidelijk afgestapt van algehele verboden op AI-gebruik. Volledige verboden op generatieve AI zijn sterk afgenomen—het onderzoek laat een daling van 21 procentpunt op jaarbasis zien—net als strikte beperkingen op welke data medewerkers in AI-tools mogen invoeren.

Blijkbaar heeft de praktijk organisaties geleerd dat verbieden niet werkt. Mensen gebruiken AI-tools toch, ongeacht het beleid, en algehele verboden duwen het gebruik alleen maar ondergronds waar het niet te monitoren of te besturen is. De alternatieve aanpak die nu terrein wint, richt zich op contextuele controles: bewustwordingstrainingen, technische beveiligingen die voorkomen dat bepaalde datatypes systemen binnenkomen, en governance-mechanismen die werken op het moment van interactie in plaats van via organisatiebrede verboden.

Dit duidt op volwassenwording. Vroege reacties op generatieve AI waren vaak ingegeven door angst in plaats van strategie. Organisaties zagen risico’s en beperkten de toegang. De aanpak in 2026 erkent dat AI nu is ingebed in bedrijfsprocessen en richt zich op verantwoord gebruik mogelijk maken in plaats van alles te verbieden.

Agentische AI—systemen die autonoom kunnen handelen zonder menselijke goedkeuring voor elke stap—is de volgende uitdaging. Uit het onderzoek blijkt dat de bekendheid met agentische AI hoog is, maar daadwerkelijke inzet nog beperkt. Organisaties bereiden zich voor door bestaande governancekaders uit te breiden, menselijke validatie-eisen te implementeren, escalatiedrempels voor autonome beslissingen vast te stellen en override-mechanismen te bouwen voor als systemen onverwacht gedrag vertonen.

Vertrouwen in leveranciers: veel vertrouwen, achterblijvende contracten

Organisaties zijn steeds afhankelijker van externe AI-leveranciers, en het onderzoek laat zien dat deze relaties complex zijn. Aan de ene kant is het vertrouwen groot: 81% van de organisaties zegt dat hun generatieve AI-leveranciers transparant zijn over het gebruik van data, en hetzelfde percentage meldt dat leveranciers duidelijk uitleggen hoe hun systemen werken.

Aan de andere kant zijn formele verantwoordingsmechanismen niet in hetzelfde tempo meegegroeid. Slechts 55% van de organisaties vereist duidelijke contractuele afspraken over data-eigendom, gebruiksrechten en intellectueel eigendom bij samenwerking met AI-leveranciers. Dit betekent dat bijna de helft van de organisaties vertrouwt op informele toezeggingen in plaats van afdwingbare overeenkomsten.

Die kloof creëert risico’s. Als er iets misgaat—een model levert bevooroordeelde uitkomsten, trainingsdata blijkt onrechtmatig verkregen, of een datalek onthult klantgegevens die via leverancierssystemen zijn verwerkt—dan kunnen organisaties zonder duidelijke contracten moeite hebben om verantwoordelijkheid vast te stellen of herstel te eisen.

Vooruitstrevende organisaties dichten deze kloof. Bijna drie kwart (73%) voert nu actieve verificatie en doorlopende monitoring uit om te waarborgen dat tools van derden voldoen aan opkomende AI-regelgeving. Privacycertificeringen van derden zijn een belangrijk selectiecriterium geworden, waarbij 96% van de respondenten aangeeft dat deze invloedrijk zijn bij inkoopbeslissingen.

Misschien wel het meest bemoedigend is dat 79% van de organisaties meldt dat hun generatieve AI-leveranciers bereid zijn om contractvoorwaarden of toolconfiguraties aan te passen om data-exposure te beperken. Dit suggereert dat de markt zich ontwikkelt richting partnerschapsmodellen waarin leveranciers en klanten samen verantwoordelijk zijn voor verantwoord AI-gebruik.

Vijf aanbevelingen voor privacy-leiders

Op basis van de bevindingen biedt het onderzoek concrete adviezen voor organisaties die privacy en AI-governance willen vormgeven. Deze aanbevelingen zijn relevant voor elk team dat met vergelijkbare uitdagingen worstelt.

Ten eerste, geef prioriteit aan databegrip en transparantie. Dit betekent het opbouwen van volledige inventarissen van data-assets, begrijpen waar data vandaan komt en hoe het door systemen beweegt, en helder communiceren met klanten over datagebruik. Organisaties die hierin investeren, zijn beter voorbereid op veranderende regelgeving en klantverwachtingen.

Ten tweede, investeer in een robuuste datainfrastructuur. Het onderzoek benadrukt het belang van consistentie in dataverzameling, -formaat, -labeling en -architectuur. Zonder deze discipline is het lastig om datakwaliteit te waarborgen, intellectueel eigendom te beschermen en de governancecontroles te behouden die verantwoorde AI-inzet vereist.

Ten derde, evalueer strategisch de keuzes rondom datalokalisatie en infrastructuur. Hoewel lokalisatie specifieke wettelijke vereisten kan adresseren, moeten organisaties de beveiligingsvoordelen zorgvuldig afwegen tegen operationele kosten en complexiteit. Lokale opslag betekent niet automatisch betere beveiliging, en gefragmenteerde infrastructuur brengt eigen risico’s met zich mee.

Ten vierde, stel één enkele, krachtige AI-governance-organisatie in. Dit orgaan moet crossfunctioneel zijn samengesteld en voldoende bevoegdheid hebben om ethische overwegingen en principes voor verantwoord AI-gebruik te integreren in ontwikkel- en inzetprocessen. Commissies zonder echte macht worden theater in plaats van bescherming.

Ten vijfde, geef medewerkers de middelen via training en technische waarborgen. Omdat menselijke beslissingen veel datarisico’s creëren, moeten organisaties investeren in uitgebreide trainingsprogramma’s en technische maatregelen die risicovolle data-exposure bij het gebruik voorkomen.

Wat betekent dit voor het komende jaar?

Het Cisco-onderzoek laat zien dat organisaties op een kantelpunt staan. Privacy is geëvolueerd van een compliance-functie naar een strategische capaciteit. AI is getransformeerd van opkomende technologie naar operationele noodzaak. Gegevensbeheer is verschoven van kostenpost naar aanjager van innovatie.

Organisaties die deze verschuivingen begrijpen en daarop inspelen, zullen beter in staat zijn AI verantwoord in te zetten, klantvertrouwen te behouden en zich te bewegen in een steeds complexer regelgevend landschap. Wie privacy blijft zien als een kostenpost om te minimaliseren in plaats van een capaciteit om te ontwikkelen, zal moeite hebben om aan de stijgende verwachtingen te voldoen.

De cijfers maken de richting duidelijk. Als 99% van de organisaties tastbare voordelen meldt van privacy-investeringen, als 96% verbeterde datacontroles koppelt aan meer wendbaarheid en innovatie, als het percentage organisaties dat minstens $5 miljoen aan privacy besteedt in één jaar bijna verdrievoudigt—dan geeft de markt een onmiskenbaar signaal.

Privacy is infrastructuur geworden. En infrastructuur vereist investering, aandacht en blijvende inzet. De organisaties die deze realiteit onderkennen, bouwen aan de basis voor verantwoorde AI-inzet. Wie dat niet doet, zal steeds minder kunnen meekomen in een wereld waarin klanten, toezichthouders en partners allemaal verantwoordelijkheid verwachten rond datagebruik.

De 2026 Data and Privacy Benchmark Study legt niet alleen vast waar organisaties nu staan. Het laat zien waar het hele privacylandschap van ondernemingen naartoe beweegt—en biedt een stappenplan voor wie wil leiden in plaats van volgen.

Ontdek hoe Kiteworks kan helpen en plan vandaag nog een persoonlijke demo.

Veelgestelde vragen

De Cisco 2026 Data and Privacy Benchmark Study ondervroeg meer dan 5.200 IT- en beveiligingsprofessionals in 12 wereldwijde markten en concludeerde dat AI de belangrijkste aanjager is van de uitbreiding van privacyprogramma’s. Belangrijkste bevindingen zijn dat 90% van de organisaties privacyprogramma’s heeft uitgebreid vanwege AI, 38% nu jaarlijks minstens $5 miljoen aan privacy besteedt (tegenover 14% het jaar ervoor), en 99% tastbare voordelen meldt van privacy-investeringen. Het onderzoek onthulde ook aanzienlijke governancegaten: slechts 12% van de organisaties beschrijft hun AI-governancecommissies als volwassen, ondanks dat 75% zo’n orgaan heeft opgezet.

Volgens het Cisco-onderzoek besteedt 38% van de organisaties nu jaarlijks $5 miljoen of meer aan privacyprogramma’s, een sterke stijging ten opzichte van slechts 14% het jaar ervoor. Daarnaast meldt 43% van de organisaties dat de privacy-uitgaven de afgelopen 12 maanden zijn toegenomen, en 93% is van plan om de komende twee jaar meer middelen toe te wijzen aan ten minste één gebied van privacy en gegevensbeheer. Deze investeringsgolf weerspiegelt het groeiende besef dat AI-systemen een substantiële gegevensbeheer-infrastructuur vereisen om verantwoord te kunnen functioneren.

AI heeft privacyprogramma’s uitgebreid omdat het nieuwe data-eisen en governance-uitdagingen introduceert die traditionele privacykaders nooit hebben voorzien. Het trainen van machine learning-modellen vereist enorme datasets met duidelijke herkomst en eigendom. Generatieve AI-tools verwerken gebruikersinvoer op manieren die nieuwe privacyvraagstukken oproepen rond dataretentie en -gebruik. Agentische AI-systemen die autonoom kunnen handelen, brengen ongekende vragen met zich mee over verantwoordelijkheid en transparantie van besluitvorming. Uit het onderzoek blijkt dat 47% van de organisaties meldt dat AI hun privacymandaat significant heeft uitgebreid, terwijl nog eens 43% spreekt van een matige uitbreiding.

Datakwaliteit en toegankelijkheid vormen de grootste operationele uitdaging voor AI-governance. Uit het onderzoek blijkt dat 65% van de organisaties moeite heeft om efficiënt toegang te krijgen tot relevante, hoogwaardige data, waarbij vaak de kosten en inspanning van datavoorbereiding worden genoemd als belemmeringen voor opschaling van AI-initiatieven. Daarnaast ziet 77% bescherming van intellectueel eigendom van AI-datasets als een van de belangrijkste governancezorgen, en slechts 51% van de organisaties met datatagging-systemen noemt hun aanpak volledig dekkend. Deze data management-gaten vormen obstakels voor verantwoorde AI-inzet en effectieve governance.

Eisen rondom datalokalisatie zijn steeds belastender geworden voor organisaties die AI-systemen inzetten. Uit het onderzoek blijkt dat 85% van de organisaties zegt dat datalokalisatie extra kosten, complexiteit en risico toevoegt aan grensoverschrijdende dienstverlening. Wereldwijde bedrijven ervaren zwaardere gevolgen dan organisaties die zich op één markt richten, waaronder hogere nalevingskosten (77% versus 63%), infrastructuurverdubbeling (72% versus 59%) en tragere inzet (67% versus 56%). Daarnaast meldt 78% van de organisaties hogere lokalisatiekosten specifiek door AI-ontwikkelingen, en 81% ziet een toegenomen vraag naar lokalisatie door generatieve en agentische AI-modellen.

Het onderzoek biedt vijf belangrijke aanbevelingen voor organisaties die privacy en AI-governance willen vormgeven. Ten eerste, geef prioriteit aan databegrip en transparantie door volledige data-inventarissen op te bouwen en helder te communiceren met klanten. Ten tweede, investeer in een robuuste datainfrastructuur met consistente standaarden voor verzameling, formaat, labeling en architectuur. Ten derde, evalueer strategisch de keuzes rondom datalokalisatie door beveiligingsvoordelen af te wegen tegen operationele kosten. Ten vierde, stel één krachtige AI-governance-organisatie in met crossfunctionele vertegenwoordiging en echte bevoegdheid. Ten vijfde, geef medewerkers de middelen via uitgebreide trainingsprogramma’s en technische waarborgen die risicovolle data-exposure bij het gebruik voorkomen.

Aanvullende bronnen

  • Blog Post Zero Trust Architectuur: Nooit vertrouwen, altijd verifiëren
  • Video Microsoft GCC High: Nadelen die defensie-aannemers richting slimmere voordelen sturen
  • Blog Post Hoe je geclassificeerde data beveiligt zodra DSPM het signaleert
  • Blog Post Vertrouwen opbouwen in generatieve AI met een Zero Trust-aanpak
  • Video De definitieve gids voor het veilig opslaan van gevoelige data voor IT-leiders

Aan de slag.

Het is eenvoudig om te beginnen met het waarborgen van naleving van regelgeving en het effectief beheren van risico’s met Kiteworks. Sluit je aan bij de duizenden organisaties die vol vertrouwen privégegevens uitwisselen tussen mensen, machines en systemen. Begin vandaag nog.

Table of Content
Share
Tweet
Share
Explore Kiteworks