Die Kiteworks-Plattform verwendet inhaltsdefiniertes Zero Trust und digitales Rechtemanagement, um wachsende Bedenken hinsichtlich der Aufnahme von sensiblen Inhalten in Tools für Large Language Models (LLM) zu adressieren.

Kiteworks, das durch sein Private Content Network Datenschutz und Compliance für sensible Inhaltskommunikation bietet, gab bekannt, dass die Kiteworks-Plattform fortschrittliche Schutzmassnahmen für digitales Risikomanagement (DRM) verwendet, um kritisches geistiges Eigentum von Unternehmen (IP) und personenbezogene Daten (PII) vor der Aufnahme in einer wachsenden Anzahl von Tools für Large Language Models (LLM) zu schützen, die auf generativer künstlicher Intelligenz (AI) basieren.

Eine kürzlich von Gartner durchgeführte Umfrage ergab, dass Unternehmen generative KI als ihr zweitgrößtes Risiko einstufen und dabei drei Hauptgefahrenbereiche identifizieren: 1) Geistiges Eigentum, das als Teil des Trainingsdatensatzes verwendet und in Ergebnissen für andere Benutzer genutzt wird, 2) Personenbezogene Daten und andere sensible persönliche Informationen, die in KI-Tools verwendet werden und Datenschutzgesetze verletzen, und 3) böswillige Akteure, die generative KI-Tools nutzen, um die Entwicklung von Angriffen und Exploits zu beschleunigen.

Sensible Inhalte, die gefährdet sind, umfassen 1) Trainingsdaten – diejenigen, die zur Schulung des KI-Sprachmodells verwendet werden, 2) Informationen aus Wissensdatenbanken – vertrauliche, eigentumsrechtlich geschützte Informationen, die zur Generierung von Antworten aus dem generativen KI-LLM-Tool verwendet werden, und 3) vertrauliche Chatbot-Interaktionen in Kundensupport-, Vertriebs- und Marketing-Szenarien, in denen sowohl absichtlich als auch versehentlich personenbezogene Daten und andere persönliche Informationen in die Chat-Schnittstelle eingegeben werden. Viele Organisationen stufen das Risiko als ernst ein, so ernst, dass drei Viertel der Organisationen derzeit Verbote von ChatGPT und anderen generativen KI-Anwendungen am Arbeitsplatz umsetzen oder in Erwägung ziehen; 61% von diesen geben an, dass die Verbote langfristig oder sogar dauerhaft gelten sollen (Quelle).

Neueste Studien zeigen, dass ein erhebliches Risiko besteht, dass sensible Inhalte in generative AI Large Language Model (LLM) Tools gelangen. Dazu gehören:

  • 15% (eine Zahl, die schnell wächst) der Mitarbeiter veröffentlichen regelmäßig Unternehmensdaten in generative AI Large Language Models (LLM), und ein Viertel dieser Daten wird als sensibel betrachtet. (Quelle)
  • Arbeitnehmer, die generative AI LLM Tools nutzen, verwenden diese durchschnittlich 36 Mal am Tag, wobei in 25% der Fälle Daten eingefügt werden. (Quelle)
  • Die Hauptkategorien von vertraulichen Informationen, die in generative AI Large Language Models (LLM) eingegeben werden, sind interne Geschäftsdaten (43%), Quellcode (31%), personenbezogene Daten (12%) und Kundendaten (9%). (Quelle)
  • Auf GitHub sind 30.000 GPT-bezogene Projekte verzeichnet. (Quelle)
  • Nur 28% der Organisationen haben Verfahren eingeführt, um regulatorische Compliance-Risiken zu mindern. (Quelle)
  • Nur 20% der Organisationen haben Verfahren eingeführt, um den Einsatz von personenbezogenen Daten in generativen AI Large Language Models zu mindern. (Quelle)
  • Zu Beginn dieses Jahres stieg innerhalb von nur sechs Wochen die Menge an sensiblen Daten, die in generative AI Large Language Models eingespeist wurden, um 60% an. (Quelle)

Ohne inhaltsbasierte Risikorichtlinien und Kontrollmechanismen können durchsickernde sensible Inhalte in generative AI Large Language Models für Organisationen eine ernsthafte Bedrohung darstellen. Zusätzlich zur Manipulation von Large Language Models durch Cyberkriminelle für bösartige Aktivitäten glauben Sicherheitsforscher an eine weitere Gefahr. Sie vermuten, dass Angriffe zur Extraktion von Trainingsdaten in der Lage sein könnten, wortgetreue Texte, personenbezogene Daten und geistiges Eigentum aus AI-Modellen erfolgreich wiederherzustellen. Cyberkriminelle könnten diese Daten zurückhalten und Lösegeld dafür verlangen. Der Verlust von personenbezogenen Daten und geschützten Gesundheitsinformationen (PHI), auch wenn unbeabsichtigt, kann Datenschutzvorschriften wie DSGVO, HIPAA, PIPEDA, PCI DSS und zahlreiche andere verletzen, die eine öffentliche Offenlegung und Benachrichtigung erfordern. Dies kann zu regulatorischen Bußgeldern und Strafen, Markenentwertung, verminderter Produktivität und sinkenden Einnahmen führen.

„Generative AI Large Language Models stellen für Organisationen eine dringende Herausforderung im Datenschutz dar“, sagte Tim Freestone, CMO bei Kiteworks. „Die Anzahl der Mitarbeiter und Auftragnehmer, die AI LLMs nutzen, steigt rasant an – und dies wird aufgrund der immensen Wettbewerbsvorteile, die sie bieten, auch weiterhin so bleiben. Und man darf nicht vergessen: Diejenigen in Ihrem Netzwerk sind nur die Spitze des Eisbergs; die meisten Organisationen senden, teilen, empfangen und speichern sensible Inhalte mit Tausenden von Drittparteien.“

Die gute Nachricht ist, dass Organisationen mit einem Private Content Network von Kiteworks vertrauliche Informationen wie Geschäftsgeheimnisse, Kundendaten, personenbezogene Daten, geschützte Gesundheitsinformationen und Finanzdaten verfolgen und kontrollieren können, um zu verhindern, dass sie AI LLMs ausgesetzt werden. Kiteworks bietet Funktionen basierend auf Inhaltsrisikorichtlinien:

  • Geringes Risiko: Inhaltsgesteuertes Zero Trust. Nutzen Sie Zugriffsrichtlinien und -kontrollen mit minimalen Berechtigungen für Mitarbeiter und Dritte, die basierend auf der Sensitivität der Inhalte definiert sind. Wasserzeichen können hinzugefügt werden, um Benutzer darauf hinzuweisen, dass bestimmte Inhalte nicht in generativen AI LLMs verwendet werden sollten.
  • Mittleres Risiko: View-only DRM. Nutzen Sie Kiteworks SafeView™, um lokale Kopien von Inhalten zu verhindern, sodass Mitarbeiter und Dritte die Kopie nicht extrahieren und in einen generativen AI LLM hochladen können. Zusätzliche Richtlinien können festgelegt werden, um den Zugriff nach einer bestimmten Zeitdauer oder nach einer festgelegten Anzahl von Ansichten verfallen zu lassen.
  • Hohes Risiko: Next-Generation DRM für Zusammenarbeit. Nutzen Sie die Next-Generation DRM mit Kiteworks SafeEdit™, um zu verhindern, dass Daten das Datencenter und das Repository eines Unternehmens verlassen, während gleichzeitig eine effiziente Zusammenarbeit mit internen Nutzern und Dritten ermöglicht wird. Kiteworks SafeEdit überträgt ein bearbeitbares Video-Bild an die Nutzer.

„Die Next-Generation-DRM-Fähigkeiten von Kiteworks ermöglichen es Unternehmen, den sensiblen Inhalt zu verfolgen und zu kontrollieren, den Mitarbeiter, Auftragnehmer und Dritte in generative AI LLMs einspeisen“, erläutert Freestone. „Mit unseren SafeView- und SafeEdit-Funktionen können Unternehmen nachverfolgen und steuern, wie Endbenutzer auf vertrauliche Daten zugreifen und sie verwenden, einschließlich dessen, was in generative AI LLMs aufgenommen werden kann und was nicht. Mit Kiteworks können Unternehmen, die AI LLMs eingeführt haben, dies mit Vertrauen tun, während diejenigen, die deren Verwendung verboten haben, ihre Entscheidung überdenken können, im Wissen, dass ihre sensiblen Daten geschützt sind.“

Über Kiteworks

Kiteworks hat es sich zur Aufgabe gemacht, Unternehmen in die Lage zu versetzen, die Risiken beim Senden, Teilen, Empfangen und Speichern sensibler Inhalte effektiv zu managen. Die Kiteworks-Plattform bietet Kunden ein Private Content Network, das Content Governance, Compliance und Schutz bietet. Die Plattform vereinheitlicht, verfolgt, kontrolliert und schützt sensible Inhalte, die innerhalb des Unternehmens und über die Unternehmensgrenzen hinaus ausgetauscht werden, und verbessert so das Risikomanagement und die Einhaltung gesetzlicher Vorgaben für die gesamte Kommunikation mit sensiblen Inhalten. Kiteworks hat seinen Hauptsitz im Silicon Valley und schützt mehr als 35 Millionen Benutzer in Tausenden von Unternehmen und Behörden weltweit.

Get started.

It’s easy to start ensuring regulatory compliance and effectively managing risk with Kiteworks. Join the thousands of organizations who feel confident in their content communications platform today. Select an option below.

Lancez-vous.

Avec Kiteworks, se mettre en conformité règlementaire et bien gérer les risques devient un jeu d’enfant. Rejoignez dès maintenant les milliers de professionnels qui ont confiance en leur plateforme de communication de contenu. Cliquez sur une des options ci-dessous.

Jetzt loslegen.

Mit Kiteworks ist es einfach, die Einhaltung von Vorschriften zu gewährleisten und Risiken effektiv zu managen. Schließen Sie sich den Tausenden von Unternehmen an, die sich schon heute auf ihre Content-Kommunikationsplattform verlassen können. Wählen Sie unten eine Option.

Get A Demo