Press Release
Kiteworks beschermt proactief vertrouwelijk intellectueel eigendom en privégegevens tegen blootstelling aan datahongerige generatieve AI LLM’s
Het Kiteworks-platform gebruikt inhoudsgestuurde zero trust en digitaal rechtenbeheer om de groeiende zorgen over het verwerken van gevoelige inhoud in large language model (LLM)-tools aan te pakken.
San Mateo, CA – Kiteworks, dat dataprivacy en naleving biedt voor communicatie van gevoelige content via zijn Private Content Network, kondigde aan dat het Kiteworks-platform next-generation digital rights management (DRM) bescherming gebruikt om kritisch bedrijfsintellectueel eigendom (IP) en persoonlijk identificeerbare informatie (PII) te beschermen tegen opname in een groeiend aantal large language model (LLM) tools gebaseerd op generatieve kunstmatige intelligentie (AI).
Uit een recent onderzoek van Gartner blijkt dat ondernemingen generatieve AI als hun op één na grootste risico zien, met drie primaire risicofactoren: 1) IP dat wordt gebruikt als onderdeel van de trainingsset en vervolgens in uitkomsten voor andere gebruikers wordt verwerkt, 2) PII en andere gevoelige persoonsgegevens die in AI-tools worden gebruikt en daarmee dataprivacywetten schenden, en 3) kwaadwillenden die generatieve AI-tools inzetten om de ontwikkeling van aanvallen en uitbuiting te versnellen.
Gevoelige content die risico loopt omvat 1) trainingsdata—data gebruikt om het AI-taalmodel te trainen, 2) kennisbankdata—vertrouwelijke, bedrijfseigen informatie die wordt gebruikt om antwoorden te genereren vanuit de generatieve AI LLM-tool, en 3) vertrouwelijke chatbot-interacties in klantenservice-, sales- en marketingscenario’s waarbij PII en andere persoonlijke gegevens, zowel bewust als onbewust, in de chatinterface worden ingevoerd. Veel organisaties beschouwen dit risico als ernstig; driekwart van de organisaties implementeert of overweegt momenteel een verbod op ChatGPT en andere generatieve AI-applicaties op de werkvloer; 61% daarvan geeft aan dat het verbod bedoeld is voor de lange termijn of zelfs permanent (bron).
Recente studies tonen aan dat er een aanzienlijk risico is op het lekken van gevoelige content in generatieve AI LLM-tools. Dit omvat onder andere:
- 15% (een percentage dat snel groeit) van de werknemers plaatst regelmatig bedrijfsdata in generatieve AI LLM’s, waarvan een kwart als gevoelig wordt beschouwd. (bron)
- Werknemers die generatieve AI LLM-tools gebruiken, doen dit gemiddeld 36 keer per dag, waarbij in 25% van de gevallen data wordt geplakt. (bron)
- De belangrijkste categorieën vertrouwelijke informatie die wordt ingevoerd in generatieve AI LLM’s zijn interne bedrijfsdata (43%), broncode (31%), PII (12%), en klantgegevens (9%). (bron)
- Er zijn maar liefst 30.000 GPT-gerelateerde projecten op GitHub. (bron)
- Slechts 28% van de organisaties heeft processen geïmplementeerd om risico’s op het gebied van naleving van regelgeving te beperken. (bron)
- Slechts 20% van de organisaties heeft processen geïmplementeerd om te voorkomen dat PII wordt gebruikt in generatieve AI LLM’s. (bron)
- Eerder dit jaar steeg in slechts zes weken de hoeveelheid gevoelige data die werd ingevoerd in generatieve AI LLM’s met 60%. (bron)
Zonder contentgebaseerde risicobeleid en -controles kan het lekken van gevoelige content naar generatieve AI LLM’s een ernstig risico vormen voor organisaties. Naast cybercriminelen die generatieve LLM’s manipuleren voor kwaadaardige activiteiten, denken beveiligingsonderzoekers dat aanvallen op het extraheren van trainingsdata succesvol letterlijk teksten, PII en IP uit generatieve AI-modellen kunnen terughalen, die vervolgens door cybercriminelen gegijzeld kunnen worden. Verlies van PII en beschermde gezondheidsinformatie (PHI), zelfs als dit onbedoeld gebeurt, kan in strijd zijn met dataprivacyregelgeving zoals GDPR, HIPAA, PIPEDA, PCI DSS en tal van andere wetten die openbare melding en kennisgeving vereisen. Dit kan leiden tot boetes en sancties, reputatieschade, productiviteitsverlies en lagere omzet.
“Generatieve AI LLM’s vormen een urgente uitdaging op het gebied van gegevensbescherming voor organisaties,” zegt Tim Freestone, CMO bij Kiteworks. “Het aantal werknemers en opdrachtnemers dat generatieve AI LLM’s gebruikt, stijgt explosief—en dat zal blijven gebeuren vanwege de enorme competitieve voordelen die het biedt. En men moet niet vergeten dat degenen binnen je netwerk slechts het topje van de ijsberg zijn; de meeste organisaties verzenden, delen, ontvangen en slaan gevoelige content op met duizenden derde partijen.”
Het goede nieuws is dat organisaties met door Kiteworks ondersteunde Private Content Networks vertrouwelijke informatie, zoals bedrijfsgeheimen, klantdata, PII, PHI en financiële gegevens, kunnen volgen en beheren, zodat deze niet wordt blootgesteld aan generatieve AI LLM’s. Kiteworks biedt mogelijkheden gebaseerd op contentbeleid en risico:
- Laag risico: Content-gedefinieerde Zero Trust. Gebruik least-privilege toegangsbeleid en -controles voor medewerkers en derde partijen, gebaseerd op de gevoeligheid van content. Watermerken kunnen worden toegepast om gebruikers te waarschuwen dat specifieke content niet in generatieve AI LLM’s mag worden gebruikt.
- Gemiddeld risico: Alleen-lezen DRM. Gebruik Kiteworks SafeView™ om lokale kopieën van content te verbieden, zodat medewerkers en derde partijen geen kopie kunnen extraheren en uploaden naar een generatieve AI LLM. Extra beleid kan worden ingesteld om toegang te laten verlopen na een bepaalde periode of na een bepaald aantal weergaven.
- Hoog risico: Next-generation DRM voor samenwerking. Zet next-generation DRM in met Kiteworks SafeEdit™ om te voorkomen dat data het netwerkdatacenter en de repository van een organisatie verlaat, terwijl efficiënte samenwerking met interne gebruikers en derde partijen mogelijk blijft. Kiteworks SafeEdit streamt en verzendt een bewerkbaar videobeeld naar gebruikers.
“De next-generation DRM-mogelijkheden van Kiteworks stellen bedrijven in staat om gevoelige content die medewerkers, opdrachtnemers en derde partijen invoeren in generatieve AI LLM’s te volgen en te beheren,” aldus Freestone van Kiteworks. “Met onze SafeView- en SafeEdit-mogelijkheden volgen en beheren bedrijven hoe eindgebruikers toegang krijgen tot en omgaan met vertrouwelijke data, inclusief wat wel en niet mag worden ingevoerd in generatieve AI LLM’s. Met Kiteworks kunnen bedrijven die generatieve AI LLM’s omarmen dit met vertrouwen doen, terwijl organisaties die het gebruik ervan hebben verboden hun beslissing kunnen heroverwegen, wetende dat hun gevoelige data beschermd is.”