AI-agenten boeken vooruitgang—maar gegevensprivacy en beveiliging binnen ondernemingen blijven achter (Cloudera-rapport)

AI-agenten boeken vooruitgang—maar gegevensprivacy en beveiliging binnen ondernemingen blijven achter (Cloudera-rapport)

Nu de interesse van ondernemingen in AI ongekende hoogten bereikt, wordt één waarheid steeds duidelijker: het vertrouwen groeit niet even snel als de adoptie. Het meest recente wereldwijde rapport van Cloudera, The Future of Enterprise AI Agents, onthult een opvallende paradox: terwijl maar liefst 96% van de organisaties van plan is hun gebruik van AI agents het komende jaar uit te breiden, ziet meer dan de helft datadataprivacy als het belangrijkste obstakel.

Deze zorg is niet ongegrond. AI agents zijn veel meer dan alleen productiviteitstools. Ze functioneren als autonome systemen die data kunnen analyseren, complexe beslissingen nemen en meerstaps taken uitvoeren binnen diverse bedrijfsdomeinen: van IT-systemen en infrastructuur tot directe klantinteracties. Door dit niveau van toegang en zelfstandigheid nemen de potentiële risico’s op datalekken, overtredingen van regelgeving en beveiligingsincidenten aanzienlijk toe.

In dit artikel verkennen we de drijfveren achter de adoptie van AI agents, onderzoeken we waarom dataprivacy de voornaamste zorg is geworden en bespreken we praktische benaderingen waarmee organisaties innovatie kunnen balanceren met noodzakelijke controles. Ook bekijken we waarom simpelweg opschalen van AI-inzet niet voldoende is—en hoe oplossingen zoals de Kiteworks AI Data Gateway een veiligere route bieden voor ondernemingen die zich inzetten voor verantwoorde AI-implementatie.

Wat AI Agents Echt Zijn—en Hun Toepassingen in de Onderneming

AI agents zijn razendsnel geëvolueerd van een theoretisch concept naar praktische realiteit. In tegenstelling tot conventionele chatbots die vaste workflows volgen, zijn deze geavanceerde systemen ontworpen om zelfstandig te redeneren en te handelen. Ze kunnen cloudresources in realtime aanpassen, ondersteuning bieden bij softwareontwikkelingsprojecten, aanbevelingen doen in klantenservice-scenario’s en zelfs inzichten leveren voor financiële analyses.

Uit onderzoek van Cloudera blijkt dat organisaties deze agents inmiddels integreren in bedrijfskritische functies zoals IT-operatiebeheer, procesautomatisering en voorspellende analytics-platforms. Deze agents gedragen zich steeds meer als digitale collega’s dan als simpele tools: ze werken samen met menselijke medewerkers, analyseren continu informatie en nemen belangrijke beslissingen op basis van vastgestelde doelen in plaats van rigide, stapsgewijze instructies te volgen.

Deze mogelijkheden bieden enorm potentieel voor productiviteitsverbetering, vooral op het gebied van klantenservice en operationele efficiëntie. Toch brengt deze vooruitgang aanzienlijke afwegingen met zich mee. AI agents meer autonomie geven betekent onvermijdelijk dat ze toegang krijgen tot meer bedrijfsdata. In veel gevallen is deze data gevoelig, onderhevig aan toezicht van toezichthouders, of beide—wat een spanningsveld creëert tussen innovatie en bescherming waar organisaties zorgvuldig mee om moeten gaan.

Bevindingen van Cloudera’s Rapport: Hoge Adoptie, Grote Risico’s

In februari 2025 voerde Cloudera een uitgebreid onderzoek uit onder bijna 1.500 senior IT-leiders in 14 landen. De onderzoeksresultaten schetsen een duidelijk beeld: hoewel de adoptie van AI agents snel blijft toenemen, beperken serieuze zorgen over dataprivacy, integratiecomplexiteit en naleving van regelgeving hoe snel—en hoe grootschalig—ondernemingen deze technologieën willen inzetten.

Volgens het rapport noemt een meerderheid van 53% van de organisaties dataprivacy als hun grootste zorg bij de implementatie van AI agents. Dit percentage overtreft alle andere mogelijke obstakels, waaronder integratie-uitdagingen met legacy-systemen en de aanzienlijke kosten van inzet. Voor sterk gereguleerde sectoren zoals de zorg en de financiële sector, waar nalevingsvereiste bijzonder streng zijn en de gevolgen van data-exposure extra zwaar wegen, zijn de risico’s nog groter.

Het rapport benadrukt dat vertrouwen, nog meer dan technologische capaciteit, de doorslaggevende factor is of organisaties hun AI agent-inzet zullen uitbreiden. Totdat bedrijven er zeker van zijn dat AI-systemen geen gevoelige informatie ongepast zullen benaderen, blootstellen of misbruiken, blijven deze implementaties beperkt van omvang—of worden ze misschien zelfs helemaal uitgesteld.

Waar het Werkelijke Risico Zit: Data Toegang, Niet Alleen Modelgedrag

Veel van het gesprek over AI-beveiliging richt zich op model-specifieke zorgen—het voorkomen van hallucinaties, het minimaliseren van bias en het tegengaan van kwaadwillende prompts. Voor beveiligingsleiders in het bedrijfsleven ligt de meer directe zorg echter bij datatoegangs­patronen. AI agents moeten informatie ophalen uit meerdere onderling verbonden systemen om hun taken uit te voeren. Zonder zorgvuldig ontworpen waarborgen levert deze noodzaak aanzienlijke risico’s op voor de organisatie.

Wanneer een AI agent klantinformatie ophaalt om een servicemedewerker te ondersteunen of operationele data benadert om IT-processen te automatiseren, moet dit gebeuren binnen duidelijk gedefinieerde grenzen. Helaas zijn deze grenzen vaak onduidelijk of slecht afgedwongen. AI agents kunnen mogelijk bestanden, databases en communicatiekanalen benaderen zonder heldere beperkingen. Dit creëert kansen voor ongeautoriseerde data-exposure, niet-naleving bij het omgaan met beschermde informatie en zelfs onbedoelde overdracht van intellectuele eigendommen naar externe systemen.

De mogelijke faalscenario’s zijn niet moeilijk voor te stellen. In sterk gereguleerde omgevingen waar datatoegang nauwkeurig moet worden gecontroleerd en vastgelegd, zijn traditionele monitoringsoplossingen niet ontworpen om AI agent-activiteiten te volgen—laat staan hun toekomstige acties te voorspellen op basis van veranderende omstandigheden of nieuwe instructies.

Dataprivacy, Nalevingsvereiste en Controlemechanismen

De groeiende kloof tussen AI-mogelijkheden en bedrijfsbrede gegevensbeheerstructuren zorgt voor toenemende uitdagingen. Regelgeving zoals de GDPR, HIPAA en de California Consumer Privacy Act verplicht organisaties tot strikte controle over het gebruik en de verwerking van persoonsgegevens. Deze wettelijke kaders zijn niet ontworpen met autonome systemen in gedachten—zeker niet voor systemen die zelfstandig kunnen opereren in diverse computeromgevingen en dataopslagplaatsen.

Cloudera’s rapport laat zien hoe deze fundamentele mismatch het vertrouwen in AI-inzet beïnvloedt. Binnen veel organisaties vragen juridische en compliance-teams steeds vaker om uitstel van implementatie—niet omdat ze AI-adoptie principieel afwijzen, maar omdat ze niet kunnen verifiëren dat AI agents consequent binnen bestaande governance-kaders opereren. Het gevolg is een groeiende vraag naar data-centrische beveiligingsstrategieën die technologische innovatie in lijn brengen met regelgeving.

Oplossingen zoals de Kiteworks AI Data Gateway helpen deze kloof te overbruggen door een veilige tussenlaag te creëren die bepaalt tot welke data AI agents toegang hebben, welke logs worden bijgehouden en welke gegevens verwerkt mogen worden. Deze aanpak geeft organisaties het inzicht en de beleidsmatige handhaving die nodig zijn om AI met vertrouwen te implementeren. In plaats van AI-tools blindelings te vertrouwen, kunnen bedrijven ervoor zorgen dat elke interactie met gevoelige inhoud wordt gevolgd, beheerd en voldoet aan zowel interne beleidsregels als externe regelgeving.

Een Verantwoorde Implementatie-aanpak Bouwen

AI agents verantwoord inzetten betekent niet per se dat innovatie wordt afgeremd. Het betekent wel dat je begint met de juiste basis. Veel organisaties boeken succes door AI agents eerst in te zetten in laag-risico contexten, zoals interne IT-support of niet-klantgerichte operationele workflows. Deze eerste implementaties stellen bedrijven in staat om agent-gedrag te observeren, datastromen te begrijpen en mogelijke governance-lacunes te identificeren—zonder direct gevoelige informatie op het spel te zetten.

Als vertrouwen via deze gecontroleerde implementaties groeit, wordt opschalen aanzienlijk eenvoudiger. Toch vereist uitbreiding ook een heroverweging van hoe verantwoordelijkheid binnen de organisatie wordt toegewezen. AI agents presenteren niet alleen informatie voor menselijke beoordeling; ze nemen daadwerkelijk beslissingen met gevolgen. Dit betekent dat organisaties duidelijk moeten bepalen wie verantwoordelijk is als een agent een beslissing neemt—of die verantwoordelijkheid nu bij ontwikkelteams, data stewards of de business units ligt die het systeem implementeren.

Transparantie is een ander essentieel element. Bedrijven moeten de mogelijkheid behouden om besluitvormingsprocessen te auditen, te volgen welke databronnen zijn geraadpleegd voor specifieke handelingen en te verifiëren of agent-acties overeenkomen met het bedrijfsbeleid. Dit toezicht is moeilijk te realiseren zonder gespecialiseerde systemen die specifiek zijn ontworpen om AI-gedrag op dataniveau te monitoren en te controleren.

Lessen uit Gedocumenteerde Implementatiefouten

Cloudera’s rapport benoemt diverse sectoren waar de risico’s van AI-inzet al op zorgwekkende wijze zijn uitgekomen. In zorgomgevingen hebben diagnostische agents die getraind zijn op niet-representatieve data onnauwkeurige aanbevelingen gedaan die ondervertegenwoordigde demografische groepen benadelen. In defensietoepassingen heeft bevooroordeelde AI-besluitvorming diepgaande ethische vragen opgeroepen over de rol van machines in kritieke operationele situaties.

Dit zijn geen theoretische zorgen, maar praktische herinneringen dat datakwaliteit, procedurele transparantie en effectieve controlemechanismen essentieel blijven voor AI-systemen om vertrouwen van organisaties te verdienen—en te behouden. Wanneer AI-systemen zonder voldoende zichtbaarheid of toezicht opereren, reiken de gevolgen verder dan technische aspecten en raken ze echte mensen en organisaties. Deze realiteit onderstreept waarom verantwoord implementeren hand in hand moet gaan met robuuste datagovernance.

De Menselijke Factor bij AI-Implementatie

Naast technische overwegingen hangt succesvolle inzet van AI agents sterk af van menselijke factoren. Organisaties moeten investeren in trainingsprogramma’s die medewerkers helpen effectief samen te werken met steeds autonomere systemen. Dit omvat het ontwikkelen van vaardigheden voor het juist delegeren van taken, het kritisch interpreteren van AI-aanbevelingen en het behouden van het besef wanneer menselijk oordeel zwaarder moet wegen dan geautomatiseerde suggesties.

De organisaties die het meeste succes behalen met AI agents zijn niet per se degenen met de meest geavanceerde modellen of grootste dataopslag. Het zijn juist de bedrijven die bewust hebben nagedacht over de samenwerking tussen mens en machine, duidelijke samenwerkingsprotocollen hebben opgesteld en menselijk toezicht behouden bij kritieke beslissingen. Deze gebalanceerde aanpak erkent dat AI-systemen, ondanks hun indrukwekkende mogelijkheden, nog steeds het contextbegrip en het ethisch beoordelingsvermogen missen dat mensen inbrengen bij complexe situaties.

Effectieve implementatie vereist ook afstemming tussen afdelingen. Technische teams die AI ontwikkelen moeten nauw samenwerken met business units, compliance-specialisten en risicomanagement-professionals. Deze samenwerking zorgt ervoor dat AI agents de juiste begeleiding krijgen vanuit diverse perspectieven, in plaats van alleen te optimaliseren voor technische doelen die mogelijk botsen met bredere organisatieprioriteiten.

Innovatie en Bescherming in Balans Brengen

Misschien wel het lastigste aspect van AI-implementatie binnen ondernemingen is het vinden van de juiste balans tussen innovatie mogelijk maken en passende waarborgen behouden. Te veel restricties kunnen het transformerende potentieel van AI verstikken, terwijl te weinig controle onaanvaardbare risico’s oplevert. Deze balans vinden vereist een voortdurende dialoog tussen technologie-enthousiastelingen en degenen die verantwoordelijk zijn voor de bescherming van de organisatie.

Succesvolle organisaties pakken deze uitdaging pragmatisch aan. In plaats van beveiligings- en nalevingsvereiste te zien als obstakels voor innovatie, erkennen ze deze aspecten als essentiële onderdelen van duurzame AI-inzet. Door governanceprincipes vroeg in het ontwikkelproces te integreren, en niet pas achteraf, realiseren deze bedrijven AI-implementaties die bedrijfswaarde leveren én in lijn blijven met organisatiewaarden en wettelijke verwachtingen.

Deze geïntegreerde aanpak levert ook competitieve voordelen op. Organisaties die betrouwbare AI-kaders opzetten, kunnen met meer vertrouwen nieuwe toepassingsgebieden betreden, wetende dat hun governance de basis biedt voor verantwoorde uitbreiding. Ondertussen ontdekken bedrijven die snelheid boven beveiliging stellen vaak dat ze hun implementaties later moeten herzien—wat meer kost aan herstel dan wanneer ze vanaf het begin de juiste controles hadden ingebouwd.

Bouwen aan de Toekomst: AI Governance als Strategische Investering

Vooruitstrevende ondernemingen zien robuuste AI-governance steeds vaker niet als een nalevingslast, maar als een strategische investering. Organisaties die vandaag uitgebreide databeveiligingsmogelijkheden opbouwen, positioneren zich gunstig voor de meer geavanceerde AI-toepassingen van morgen. Naarmate autonome systemen dieper geïntegreerd raken met kritieke bedrijfsfuncties, neemt de waarde van verantwoorde kaders alleen maar toe.

Deze visie ziet governance niet als een beperking van wat AI kan doen, maar als een middel om te sturen naar wat AI zou moeten doen—door waarborgen te creëren die innovatie in goede banen leiden en voorzienbare schade voorkomen. Wanneer AI agents binnen duidelijk gedefinieerde ethische en operationele grenzen opereren, worden ze waardevoller voor de organisatie, niet minder.

De meest geavanceerde organisaties ontwikkelen inmiddels AI-specifieke governance-commissies waarin technische expertise, zakelijke kennis, juridische begeleiding en ethische perspectieven samenkomen. Deze multidisciplinaire groepen stellen principes op, beoordelen implementaties en verfijnen governance-aanpakken continu naarmate technologieën evolueren. Door dit samenwerkingskader te institutionaliseren, zorgen ze ervoor dat AI-toepassingen de juiste aandacht krijgen zonder onnodige barrières op te werpen voor waardevolle innovatie.

Conclusie: Vertrouwen als Competitief Voordeel

AI agents hebben hun plek veroverd in het technologische landschap van ondernemingen. Organisaties erkennen hun enorme waarde en blijven fors investeren in bredere implementaties. Maar adoptie zonder vertrouwen brengt aanzienlijke risico’s met zich mee. Zoals het onderzoek van Cloudera duidelijk laat zien, ligt de grootste kans—en de grootste uitdaging—in het effectief beheren van dataprivacy, beveiliging en naleving terwijl AI-mogelijkheden binnen de onderneming worden opgeschaald.

De fundamentele uitdaging is niet het afremmen van AI-vooruitgang, maar ervoor zorgen dat die vooruitgang veilig en verantwoord plaatsvindt. Dit vereist het implementeren van de juiste controles, het opzetten van duidelijke verantwoordingsstructuren en het waarborgen dat elke AI-interactie met bedrijfsdata wordt beheerd, vastgelegd en voldoet aan relevante vereiste. Met oplossingen als de Kiteworks AI Data Gateway hoeven organisaties niet te kiezen tussen innovatie en controle—ze kunnen beide tegelijkertijd nastreven.

De ondernemingen die deze realiteit onderkennen—en daar doortastend naar handelen—zullen het beste in staat zijn om de belofte van AI om te zetten in duurzame bedrijfswaarde. Naarmate autonome systemen steeds centraler worden in competitieve strategieën, zullen organisaties die vandaag betrouwbare fundamenten leggen morgen aanzienlijke voordelen genieten. In het opkomende AI-gedreven bedrijfslandschap is vertrouwen niet alleen een voorwaarde voor technologie-adoptie—het wordt een echt competitief onderscheidend vermogen.

Veelgestelde vragen

AI agents zijn autonome systemen die data kunnen analyseren, beslissingen nemen en complexe taken uitvoeren binnen bedrijfsomgevingen zonder voortdurende menselijke supervisie. In tegenstelling tot traditionele AI-tools die strikte instructies volgen, kunnen agents zelfstandig redeneren, zich aanpassen aan veranderende omstandigheden en samenwerken met mensen op een manier die meer lijkt op collega’s dan op simpele automatiseringstools. Ze vormen een belangrijke evolutie in de AI-mogelijkheden van ondernemingen, maar vereisen meer toegang tot bedrijfsdata om effectief te functioneren.

Dataprivacy staat bovenaan omdat AI agents uitgebreide toegang tot data over meerdere systemen nodig hebben om hun taken uit te voeren. Volgens onderzoek van Cloudera noemt 53% van de organisaties dataprivacy als het grootste obstakel voor adoptie, meer dan technische integratie-uitdagingen of implementatiekosten. Deze zorg is vooral groot in gereguleerde sectoren waar datalekken kunnen leiden tot zware financiële sancties en reputatieschade.

Organisaties kunnen deze balans bereiken door te starten met laag-risico implementaties die geen gevoelige data bevatten, duidelijke verantwoordingskaders op te stellen, gespecialiseerde monitoringtools voor AI-systemen te implementeren en oplossingen te gebruiken zoals beveiligde datagateways die bepalen tot welke informatie agents toegang hebben. De meest succesvolle implementaties zien governance niet als een belemmering voor innovatie, maar als een voorwaarde voor duurzame, verantwoorde AI-inzet.

AI agents worden momenteel vooral ingezet voor IT-operatiebeheer, procesautomatisering, voorspellende analytics, verbetering van klantenondersteuning en ondersteuning bij softwareontwikkeling. Deze toepassingen zijn gebieden waar autonome besluitvorming aanzienlijke efficiëntiewinst oplevert, terwijl er toch menselijk toezicht blijft op kritieke functies. Naarmate het vertrouwen groeit, breiden de inzetgebieden zich verder uit naar meer bedrijfskritische functies.

Vroege implementatiefouten benadrukken het belang van diverse trainingsdata, transparante besluitvormingsprocessen, uitgebreide governance-kaders en samenwerking tussen afdelingen. In de zorg bijvoorbeeld hebben diagnostische agents die getraind zijn op niet-representatieve data aanbevelingen gedaan die bepaalde patiëntgroepen benadelen. Deze ervaringen laten zien dat technische capaciteit alleen niet voldoende is—betrouwbare AI vraagt evenveel aandacht voor ethische overwegingen, governance-structuren en menselijk toezicht.

Aan de slag.

Het is eenvoudig om te beginnen met het waarborgen van naleving van regelgeving en het effectief beheren van risico’s met Kiteworks. Sluit je aan bij de duizenden organisaties die vol vertrouwen privégegevens uitwisselen tussen mensen, machines en systemen. Begin vandaag nog.

Table of Content
Share
Tweet
Share
Explore Kiteworks