KI-Agents sind die größte Datenrisikoquelle, die Sie nicht kontrollieren
Im vergangenen Jahr hat sich in der Unternehmenssicherheit etwas still und leise verändert – und die meisten Unternehmen haben es übersehen.
KI-Agents – autonome Systeme, die eigenständig denken, handeln und mit Unternehmensressourcen interagieren – sind von Pilotprojekten in produktive Workflows übergegangen. Sie passen Cloud-Ressourcen an, führen mehrstufige Geschäftsprozesse aus, fragen Datenbanken ab und interagieren mit externen APIs. All das geschieht mit erheblicher Unabhängigkeit, in Maschinengeschwindigkeit und häufig ohne ständige menschliche Überwachung.
Und hier kommt der Punkt, der jede CISO beschäftigen sollte: Die Sicherheitsinfrastruktur, die diese Agents steuert, hält mit deren Einsatz nicht Schritt. Nicht einmal annähernd.
Der Cyber Pulse Report von Microsoft bestätigt, dass mehr als 80 % der Fortune-500-Unternehmen mittlerweile aktive KI-Agents einsetzen – viele davon mit Low-Code- und No-Code-Tools, die die Erstellung von Agents in die Hände von autorisierten Anwendern und nicht nur Entwicklern legen. Derselbe Bericht spricht eine deutliche Warnung aus: Diese Agents „skalieren schneller, als manche Unternehmen sie überhaupt wahrnehmen“. Diese fehlende Transparenz ist kein kleines Ärgernis. Microsoft bezeichnet sie als Geschäftsrisiko, das dringend Governance und Sicherheit erfordert.
Die Frage ist nicht mehr, ob Ihr Unternehmen KI-Agents einsetzen wird. Sondern, ob Sie sie steuern, bevor sie einen Datenschutzverstoß verursachen, den Sie nicht mehr eindämmen können.
5 wichtige Erkenntnisse
- KI-Agents skalieren schneller, als Sicherheitsteams sie erfassen können. Über 80 % der Fortune-500-Unternehmen setzen inzwischen aktive KI-Agents ein, die mit Low-Code- und No-Code-Tools erstellt wurden. Der Cyber Pulse Report von Microsoft warnt, dass diese Agents „schneller skalieren, als manche Unternehmen sie überhaupt wahrnehmen“ – und so eine Transparenzlücke entsteht, die explizit als Geschäftsrisiko benannt wird. Wenn autonome Systeme eigenständig denken, handeln und auf Unternehmensressourcen zugreifen können, ist fehlende Governance kein Lücke – sondern eine offene Tür.
- Jede dritte Organisation sieht unüberwachten Datenzugriff durch KI-Agents als kritische Bedrohung. Laut Proofpoints Data Security Landscape Report 2025 identifizieren 32 % der Unternehmen unüberwachten Datenzugriff durch KI-Agents als kritische Bedrohung. Diese Agents agieren oft als hochprivilegierte „Superuser“ und greifen mit deutlich weniger Kontrolle als jeder menschliche Mitarbeiter auf sensible Daten in Cloud- und Hybridumgebungen zu.
- KI-Agents lassen sich durch versteckte Anweisungen weaponisieren – ganz ohne Nutzerinteraktion. Trend Micro hat gezeigt, dass multimodale KI-Agents durch versteckte Anweisungen in Bildern oder Dokumenten manipuliert werden können, sodass sensible Daten ohne einen einzigen Klick des Nutzers exfiltriert werden. Forscher auf arXiv entwickelten einen Ende-zu-Ende-Exploit, bei dem versteckte Anweisungen auf einer bösartigen Blogseite einen RAG-basierten Agenten dazu brachten, Geheimnisse aus seiner Wissensdatenbank abzurufen und an einen vom Angreifer kontrollierten Server zu senden.
- 44 % der Unternehmen haben keine ausreichende Kontrolle über den Einsatz generativer KI. Proofpoint fand heraus, dass 44 % der Unternehmen zugeben, keine ausreichende Kontrolle über den Einsatz generativer KI – einschließlich Tools und Agents – zu haben. Die Cloud Security Alliance berichtet von einer deutlichen Wahrnehmungslücke: 52 % der Führungskräfte geben an, sich mit KI-Technologien auszukennen, aber nur 11 % der Mitarbeiter – also genau jene, die diese Tools täglich nutzen.
- Die Governance-Lücke ist eine finanzielle Zeitbombe. Der durchschnittliche Datenschutzverstoß kostet mittlerweile 4,88 Millionen US-Dollar (IBM Cost of a Data Breach Report, 2024). Bußgelder nach EU AI Act können bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes erreichen. DSGVO-Strafen liegen bei bis zu 20 Millionen Euro oder 4 % des Umsatzes. Da KI-bezogene Datenschutzvorfälle um 56,4 % pro Jahr zunehmen (Stanford 2025 AI Index Report), stehen Unternehmen ohne nachweisbare KI-Governance vor immer größeren finanziellen und rechtlichen Risiken.
Der Agentic Workspace ist da – und die meisten Unternehmen haben keinen Einblick
Proofpoints Data Security Landscape Report 2025 hat einen Begriff geprägt, der die aktuelle Situation perfekt beschreibt: den „agentic workspace“. Damit ist eine Arbeitsumgebung gemeint, in der KI-gesteuerte Produktivitätstools und autonome Agents gemeinsam mit Menschen sensible Daten verarbeiten. Das Fazit des Berichts ist eindeutig: Viele Unternehmen „fehlt die Transparenz und Kontrolle, um diesen neuen agentic workspace zu steuern“.
Die Zahlen dahinter sprechen eine deutliche Sprache. Fast die Hälfte der Befragten sieht die Verteilung von Daten über Cloud- und Hybridumgebungen als zentrales Problem. Zwei von fünf Unternehmen nennen Datenverlust durch öffentliche oder unternehmensinterne generative KI-Tools als Hauptsorge. Über ein Drittel befürchtet, dass sensible Daten für das Training von KI-Modellen verwendet werden. Und 32 % der Unternehmen sehen unüberwachten Datenzugriff durch KI-Agents – oft als hochprivilegierte „Superuser“ – als kritische Bedrohung.
Besonders gefährlich ist die Lücke zwischen Wahrnehmung und Realität. Die Cloud Security Alliance fand heraus, dass 52 % der Führungskräfte angeben, sich mit KI-Technologien auszukennen, aber nur 11 % der Mitarbeiter. Das ist ein Governance-Graben. Diejenigen, die KI-Richtlinien festlegen, überschätzen oft die Bereitschaft ihres Unternehmens, während die tatsächlichen Nutzer der KI-Tools nicht ausreichend wissen, wie sie diese sicher einsetzen.
Gleichzeitig geben 44 % der Unternehmen zu, keine ausreichende Kontrolle über den Einsatz generativer KI zu haben – einschließlich der Tools, die Mitarbeiter täglich nutzen, und der Agents, die zunehmend in Unternehmensprozesse eingebettet werden.
Sie vertrauen darauf, dass Ihr Unternehmen sicher ist. Aber können Sie es auch nachweisen?
Jetzt lesen
Wie KI-Agents weaponisiert werden: Prompt Injection und Datenabfluss
Wäre die Transparenzlücke das einzige Problem, wäre sie beherrschbar. Doch KI-Agents schaffen nicht nur passive Risiken – sie können aktiv weaponisiert werden. Und die Forschung, die das belegt, ist aktuell und alarmierend.
Trend Micro hat in Untersuchungen zu Schwachstellen von KI-Agents gezeigt, dass multimodale Agents durch versteckte Anweisungen in Bildern oder Dokumenten manipuliert werden können. Der Angriff erfordert keinerlei Nutzerinteraktion. Ein Dokument oder Bild mit versteckten Prompts kann dazu führen, dass ein Agent sensible Daten exfiltriert – darunter personenbezogene Informationen wie Namen, Sozialversicherungsnummern und Kontaktdaten, Finanzdaten, geschützte Gesundheitsdaten, Geschäftsgeheimnisse, Authentifizierungsdaten und vertrauliche hochgeladene Dokumente – ohne dass der Nutzer es bemerkt.
Die Angriffsfläche reicht bis ins Web. Trend Micro zeigte, dass Web-Parsing-Agents eingebettete bösartige Prompts auf Websites lesen können, die den Agenten anweisen, im Speicher abgelegte Daten – wie API-Schlüssel oder Kontaktdaten – an vom Angreifer kontrollierte Ziele zu senden. Ist ausgehender Traffic erlaubt, wird der Agent zur unfreiwilligen Datenpipeline für den Angreifer.
Forscher, die auf arXiv veröffentlichten, gingen noch weiter. Sie entwickelten einen vollständigen Ende-zu-Ende-Exploit gegen einen Retrieval-Augmented-Generation (RAG)-basierten KI-Agenten, der Tools nutzte, um eine interne Wissensdatenbank mit sensiblen Projektgeheimnissen abzufragen und externe Webinhalte abzurufen. Eine bösartige Blogseite enthielt versteckte, weiß-auf-weiß geschriebene Anweisungen, die menschliche Nutzer nicht sehen konnten. Als der Agent gebeten wurde, die Seite zusammenzufassen, nahm er diese Anweisungen auf und führte sie aus – rief das Geheimnis aus seiner Wissensdatenbank ab, bettete es in einen URL-Parameter ein und sendete es mit dem vorgesehenen Websuche-Tool an einen vom Angreifer kontrollierten Server.
Das Fazit der Studie sollte alle Sicherheitsverantwortlichen aufhorchen lassen: Aktuelle LLM-Agents mit Tool-Nutzung und RAG weisen eine „grundlegende Schwachstelle“ gegenüber indirekten Prompt-Injection-Angriffen auf, und eingebaute Sicherheitsfunktionen der Modelle reichen ohne zusätzliche Verteidigungsschichten nicht aus.
Das ist keine Theorie. Es handelt sich um nachgewiesene Exploits gegen genau die Agenten-Architekturen, die Unternehmen heute einsetzen.
Drei Schwachstellen, die zur Krise führen
Das Risiko von KI-Agents lässt sich anhand von drei sich verstärkenden Schwachstellen erklären, die zusammen eine nie dagewesene Gefährdung für Unternehmen schaffen.
Die erste Schwachstelle ist übermäßiger Datenzugriff – also die schiere Menge an Daten, auf die Agents zugreifen können. KI-Agents benötigen weitreichenden Datenzugriff, um effektiv zu funktionieren. Doch dieser Zugriff schafft eine riesige Angriffsfläche. Im Durchschnitt verfügen Unternehmen über 15.000 veraltete, aber noch aktive Konten mit mehr als 31.000 veralteten Berechtigungen (Varonis 2025 State of Data Security Report), und jeder eingesetzte KI-Agent fügt dieser ohnehin schon unübersichtlichen Angriffsfläche eine nicht-menschliche Identität hinzu. Klassische Identity- und Access-Management-Systeme wurden für Menschen entwickelt, nicht für Maschinen. Sie bieten oft nicht die Granularität, um das Prinzip der minimalen Rechtevergabe für autonome Systeme durchzusetzen, die Daten in einer Geschwindigkeit anfordern, verarbeiten und übertragen können, wie es kein menschlicher Anwender je könnte.
Die zweite Schwachstelle ist unkontrollierte Datennutzung – also welche Daten Agents verarbeiten und wohin diese Daten gelangen. Studien zeigen: Die größte Gruppe von Unternehmen – 27 % – gibt an, dass mehr als 30 % der an KI-Tools übermittelten Informationen vertrauliche Daten enthalten, darunter Sozialversicherungsnummern, medizinische Daten, Kreditkartendaten und geschütztes geistiges Eigentum. Weitere 17 % haben keinerlei Einblick, was Mitarbeiter überhaupt teilen. Gelangen diese Daten in das Trainingsset eines öffentlichen Modells, können sie nicht mehr zurückgeholt, gelöscht oder kontrolliert werden. Die Kontamination ist dauerhaft.
Die dritte Schwachstelle ist die Manipulation von Agents – also deren Ausnutzung durch Prompt Injection, bösartige Skills und Supply-Chain-Angriffe. KI-Agents, die mit externen Diensten, Plugins und Agenten-Netzwerken interagieren, sind anfällig für genau jene indirekten Prompt-Injection-Angriffe, die Trend Micro und die arXiv-Forscher demonstriert haben. Ein kompromittiertes KI-Skill kann sich innerhalb von Stunden über Agenten-Netzwerke verbreiten. Autonome Agents lassen sich dazu bringen, Zugangsdaten zu exfiltrieren, auf sensible Dateien zuzugreifen und Compliance-Verstöße zu verursachen – alles in Maschinengeschwindigkeit, viel schneller als jede menschliche Insider-Bedrohung.
Diese drei Schwachstellen existieren nicht isoliert. Sie verstärken sich gegenseitig. Ein Agent mit zu vielen Rechten, der unkontrollierte Daten verarbeitet und manipulierbar ist, ist nicht nur ein Risiko – sondern ein Datenschutzverstoß, der nur darauf wartet, zu passieren.
Shadow AI verschärft das Problem
Zu diesen strukturellen Schwachstellen kommt das Problem der Shadow AI hinzu. Fast die Hälfte der Nutzer generativer KI setzt persönliche, nicht genehmigte KI-Anwendungen ein, die komplett außerhalb der Sichtbarkeit des Unternehmens agieren. Mitarbeiter laden regelmäßig Quellcode, regulierte Daten und geistiges Eigentum in diese Tools hoch – etwa zur Zusammenfassung, Fehlersuche oder Inhaltserstellung – oft ohne zu wissen, dass die Daten zum Training öffentlicher Modelle genutzt werden können.
Das Ausmaß ist enorm. Im Durchschnitt verzeichnet ein Unternehmen 223 KI-bezogene Verstöße gegen Datenrichtlinien pro Monat, wobei Quellcode 42 % und regulierte Daten 32 % der Vorfälle ausmachen (Netskope Cloud and Threat Report 2026). KI-bezogene Datenschutzvorfälle stiegen um 56,4 % gegenüber dem Vorjahr (Stanford 2025 AI Index Report). Und bei 98 % der Unternehmen nutzen Mitarbeiter nicht genehmigte Anwendungen – im Schnitt 1.200 inoffizielle Apps pro Unternehmen (Varonis 2025 State of Data Security Report).
Nur 17 % der Unternehmen verfügen über technische Kontrollen, die den Zugriff auf öffentliche KI-Tools blockieren und gleichzeitig DLP-Scanning einsetzen. Weitere 40 % setzen ausschließlich auf Schulungen und Audits. Und 13 % haben keinerlei Richtlinien.
KI komplett zu blockieren, ist keine Lösung – das weiß jedes Unternehmen, das es versucht hat. Mitarbeiter finden Umgehungen. Sie nutzen private Accounts. Sie laden Daten von ihren Handys in kostenlose Tools hoch. Das Ergebnis ist nicht weniger KI-Nutzung, sondern unsichtbare KI-Nutzung – und die ist deutlich gefährlicher.
Die Governance-Lücke ist größer, als Unternehmen zugeben
Trotz dieser wachsenden Risiken sind die meisten Unternehmen nicht vorbereitet. Nur 12 % verfügen über eigene KI-Governance-Strukturen, während 55 % keinerlei Rahmenwerk haben. Nur 9 % erreichen laut Analysten ein „reifes“ Niveau bei der KI-Governance, obwohl 23 % sich selbst als „sehr gut vorbereitet“ einstufen – eine 14-Punkte-Überlegenheitslücke, die selbst ein Risiko darstellt.
Gleichzeitig fehlt 86 % der Unternehmen die Transparenz über KI-Datenflüsse, und 45 % nennen den Druck zur schnellen Einführung als größtes Hindernis für Governance. Bei technischen Führungskräften steigt dieser Wert auf 56 %. Das Ergebnis ist ein branchenübergreifendes Muster: Unternehmen setzen KI-Agents produktiv ein, während ihre Governance-, Sicherheits- und Compliance-Infrastruktur noch für eine Welt ausgelegt ist, in der nur Menschen auf sensible Daten zugreifen.
Das regulatorische Umfeld wartet nicht, bis Unternehmen aufholen. Allein im vergangenen Jahr wurden 59 neue Datenschutzvorschriften erlassen. Der EU AI Act sieht Bußgelder von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes für Hochrisikoverstöße vor. DSGVO-Strafen können bis zu 20 Millionen Euro oder 4 % des Umsatzes betragen. Branchenspezifische Vorgaben nach HIPAA, SOX, GLBA und CMMC erhöhen die Compliance-Anforderungen, die direkt mit dem Zugriff, der Verarbeitung und Übertragung sensibler Daten durch KI-Agents verknüpft sind.
Zero Trust für KI-Agents: Das passende Sicherheitsmodell
Microsofts Cyber Pulse Report beschreibt die Lösung mit Begriffen, die Sicherheitsexperten längst kennen: Zero Trust. Der Bericht überträgt die gleichen Zero-Trust-Prinzipien, die Unternehmen auf menschliche Anwender anwenden, auch auf Agents – also minimal notwendige Rechte, explizite Verifizierung von „wer oder was“ Zugriff anfordert, und das Prinzip, einen Kompromiss als gegeben anzunehmen.
Dieses Framework ist intuitiv nachvollziehbar. KI-Agents sind Identitäten. Sie authentifizieren sich, fordern Zugriff an, führen Aktionen aus. Dass sie keine Menschen sind, macht sie nicht weniger gefährlich – sondern gefährlicher, weil sie in einer Geschwindigkeit und einem Umfang agieren, für die menschzentrierte Sicherheitskontrollen nie entwickelt wurden.
Zero Trust im agentic workspace bedeutet: Jeder KI-Agent wird als eigene Identität behandelt, die Authentifizierung und Autorisierung benötigt. Zugriffsrechte müssen auf die minimal für die jeweilige Aufgabe erforderlichen Berechtigungen beschränkt werden. Jede Dateninteraktion muss in einem unveränderbaren Audit-Trail protokolliert werden. Anomalieerkennung muss in Maschinengeschwindigkeit erfolgen, um mit der Geschwindigkeit der Agenten mitzuhalten. Und ausgehende Datenflüsse müssen gesteuert werden, um Datenabfluss zu verhindern – egal ob ausgelöst durch einen kompromittierten Agenten, einen manipulierten Prompt oder einen fehlkonfigurierten Workflow.
Trend Micros Forschung bestätigt diesen Ansatz und empfiehlt robuste Zugriffskontrollen, fortschrittliche Inhaltsfilterung und Echtzeitüberwachung, um Datenabfluss und unautorisierte Aktionen zu verhindern. Auch die arXiv-Forscher kommen zum gleichen Schluss: Eingebaute Sicherheitsfunktionen der Modelle reichen nicht aus. Zusätzliche Verteidigungsschichten sind notwendig.
So sieht die richtige Infrastruktur aus
Die Absicherung des agentic workspace erfordert eine Infrastruktur, die auf der Datenebene agiert – nicht nur auf der Netzwerkebene. Netzwerksicherheit – etwa die Überprüfung des Traffics über Proxys – kann erkennen, dass ein Mitarbeiter eine KI-Anwendung besucht hat. Sie kann aber nicht steuern, auf welche konkreten Daten ein KI-Agent in Unternehmens-Repositorys zugreift, keine granularen Richtlinien zur Datennutzung durchsetzen und auch nicht den inhaltlichen Audit-Trail liefern, den Aufsichtsbehörden zunehmend verlangen.
Die Infrastruktur, die die KI-Governance-Lücke schließt, muss mehrere zentrale Eigenschaften aufweisen. Sie muss ein sicheres Gateway zwischen KI-Systemen und Unternehmensdaten bieten, bei dem Zero-Trust-Prinzipien bei jeder Interaktion durchgesetzt werden. Sie muss die Ausführung von KI-Agents in einer Sandbox isolieren, sodass kompromittierte Plugins oder Skills keinen Zugriff auf Ressourcen außerhalb ihres Berechtigungsbereichs erhalten. Sie muss bestehende Governance-Frameworks – rollen- und attributbasierte Zugriffskontrollen – auf alle KI-Interaktionen ausweiten, auch auf solche, die von autonomen Agents initiiert werden. Sie muss jede KI-Dateninteraktion in einem unveränderbaren Audit-Trail mit Anwenderidentität, Zeitstempel, abgerufenen Daten und verwendetem KI-System protokollieren. Und sie muss Anomalien in Maschinengeschwindigkeit erkennen, etwa wenn ein Agent plötzlich ungewöhnlich große Datenmengen anfordert oder versucht, Daten an ungewöhnliche Ziele zu senden.
Das Kiteworks Private Data Network ist genau für diese Herausforderung entwickelt. Das AI Data Gateway schafft eine Zero-Trust-Brücke zwischen KI-Systemen und Unternehmensdaten-Repositorys und stellt sicher, dass Daten die geschützte Umgebung nie verlassen. Der Secure MCP Server von Kiteworks isoliert die Ausführung von KI-Agents mit OAuth 2.0-Authentifizierung, Anomalieerkennung und Durchsetzung des Governance-Frameworks. Und die einheitliche Multi-Channel-Governance deckt Filesharing, Managed File Transfer, E-Mail, Web-Formulare, APIs und KI-Interaktionen unter einer zentralen Richtlinien-Engine mit einem einzigen unveränderbaren Audit-Trail ab.
Für Unternehmen in regulierten Branchen ist Flexibilität bei der Bereitstellung entscheidend. Kiteworks unterstützt On-Premises-, Private-Cloud-, Hybrid- und FedRAMP-High-Umgebungen – mit vordefinierten Compliance-Kontrollen für HIPAA, SOX, DSGVO, CCPA, CMMC, NIST CSF, ISO 27001 und den EU AI Act.
Die Kosten des Wartens: Datenschutzverstöße, Bußgelder und bleibende Schäden
Das finanzielle Argument für KI-Datengovernance ist eindeutig. Ein durchschnittlicher Datenschutzverstoß kostet 4,88 Millionen US-Dollar. Im Gesundheitswesen liegt der Wert sogar bei 10,93 Millionen US-Dollar (IBM Cost of a Data Breach Report, 2024). Bußgelder nach EU AI Act für Hochrisikoverstöße können bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes erreichen. DSGVO-Strafen bis zu 20 Millionen Euro oder 4 %. Verluste durch Software-Supply-Chain-Angriffe werden branchenweit auf 60 Milliarden US-Dollar prognostiziert.
Doch der größte Schaden lässt sich kaum beziffern: Geistiges Eigentum, das dauerhaft in öffentliche KI-Trainingssets einfließt. Gelangen proprietäre Daten in ein öffentliches Modell, können sie nicht mehr zurückgeholt, gelöscht oder kontrolliert werden. Der Wettbewerbsschaden ist irreversibel.
Unternehmen, die jetzt KI-Governance auf Datenebene implementieren, senken nicht nur Risiken. Sie verschaffen sich einen Wettbewerbsvorteil – können KI schneller, sicherer und mit der dokumentierten Compliance einsetzen, die Regulierungsbehörden, Auditoren und Kunden zunehmend verlangen.
Drei Maßnahmen, die jedes Unternehmen jetzt ergreifen sollte
Erstens: Verschaffen Sie sich Transparenz über das, was bereits passiert. Sie können nur steuern, was Sie sehen. Setzen Sie Monitoring ein, das KI-Dateninteraktionen über alle Kanäle erfasst – nicht nur Web-Traffic, sondern auch Filesharing, E-Mail, APIs und Agenten-Workflows. Identifizieren Sie, wohin sensible Daten an KI-Systeme fließen und ob diese Flüsse autorisiert, protokolliert und konform sind. Wenn 44 % der Unternehmen zugeben, keine ausreichende Kontrolle zu haben, gehen Sie davon aus, dass auch Ihr Unternehmen dazu zählt – bis Sie das Gegenteil nachweisen können.
Zweitens: Wenden Sie Zero Trust auf jeden KI-Agenten an. Behandeln Sie jeden KI-Agenten als nicht-menschliche Identität, die dieselbe Authentifizierung, Autorisierung und Zugriffskontrolle wie ein menschlicher Anwender benötigt – ergänzt um die Schutzmechanismen, die maschinelle Geschwindigkeit erfordert. Setzen Sie das Prinzip der minimalen Rechtevergabe um. Isolieren Sie die Ausführung von Agents. Überwachen Sie anomales Verhalten. Stellen Sie sicher, dass kein Agent auf mehr Daten zugreifen kann, als für seine Aufgabe erforderlich ist.
Drittens: Ermöglichen Sie KI mit integrierter Governance – blockieren Sie sie nicht. Unternehmen, die versuchen, KI komplett zu verbieten, werden scheitern. Mitarbeiter finden Umgehungen, und Shadow AI breitet sich aus. Der nachhaltige Ansatz ist eine Infrastruktur, die produktive KI-Nutzung ermöglicht und gleichzeitig sicherstellt, dass sensible Daten die geschützte Umgebung nie verlassen. Governance, die automatisch im Hintergrund abläuft und die Produktivität nicht behindert, ist das einzige skalierbare Modell.
Die KI-Revolution im Unternehmen steht nicht bevor – sie ist da. Die Frage ist, ob Ihr Unternehmen sie steuert – oder von ihren Folgen gesteuert wird.
Erfahren Sie, wie Kiteworks Sie unterstützen kann – vereinbaren Sie noch heute eine individuelle Demo.
Häufig gestellte Fragen
Traditionelle KI-Chatbots reagieren auf Prompts in einer begrenzten Oberfläche und führen keine eigenständigen Aktionen aus. KI-Agents sind grundlegend anders – sie denken, planen und handeln autonom über die Unternehmensgrenzen hinweg, fragen Datenbanken ab, rufen APIs auf, führen mehrstufige Prozesse aus und übertragen Daten mit minimaler menschlicher Kontrolle. Genau diese Autonomie schafft das Sicherheitsrisiko. Ein Agent beantwortet nicht nur eine Frage – er agiert als privilegierte, nicht-menschliche Identität mit Zugriff auf sensible Daten in einer Geschwindigkeit und einem Umfang, für die menschzentrierte Sicherheitskontrollen nie entwickelt wurden. Wird ein Agent kompromittiert oder manipuliert, kann er tausende Datensätze exfiltrieren, bevor überhaupt eine Alarmierung erfolgt.
Indirekte Prompt Injection bettet versteckte Anweisungen in Inhalte ein, die ein KI-Agent verarbeitet – etwa ein Dokument, Bild oder eine Webseite – und überschreibt damit die ursprüngliche Programmierung des Agents. Wenn der Agent den Inhalt verarbeitet, führt er stattdessen die Anweisungen des Angreifers aus. Trend Micro hat gezeigt, dass dies zu Datenabfluss ohne jegliche Nutzerinteraktion führt. ArXiv-Forscher entwickelten einen funktionierenden Exploit, bei dem ein RAG-basierter Agent interne Geheimnisse abruft und an den Server eines Angreifers überträgt. Klassische Sicherheitstools – DLP, Firewalls, Endpunktschutz – können das nicht verhindern, weil die Exfiltration über legitime, autorisierte Kanäle erfolgt, die der Agent ohnehin nutzen darf.
Shadow AI bezeichnet die Nutzung nicht genehmigter KI-Tools durch Mitarbeiter – etwa persönliche Accounts, kostenlose Produkte oder Browser-Erweiterungen – ohne Wissen oder Kontrolle des Unternehmens. Studien zeigen, dass 98 % der Unternehmen Mitarbeiter mit nicht genehmigten Anwendungen haben, und im Schnitt verzeichnet ein Unternehmen 223 KI-bezogene Verstöße gegen Datenrichtlinien pro Monat. Die Exposition ist dauerhaft: Wenn Mitarbeiter Quellcode, medizinische Daten, Finanzdaten oder geistiges Eigentum in ein öffentliches KI-Modell hochladen, können diese Daten in das Trainingsset des Modells einfließen. Sie lassen sich danach nicht mehr zurückholen, löschen oder kontrollieren. KI komplett zu blockieren, löst das Problem nicht – es verlagert die Nutzung ins Verborgene und schafft unsichtbare statt kontrollierbarer Risiken.
Zero Trust für KI-Agents folgt denselben Prinzipien wie bei menschlichen Anwendern – ergänzt um Schutzmaßnahmen für maschinelle Geschwindigkeit. Jeder Agent wird als eigene Identität behandelt, die explizite Authentifizierung und Autorisierung benötigt. Zugriffsrechte werden auf die minimal für die jeweilige Aufgabe erforderlichen Daten beschränkt – kein breiter Repository-Zugriff. Jede Dateninteraktion wird in einem unveränderbaren Audit-Trail protokolliert. Anomalieerkennung läuft in Maschinengeschwindigkeit, um ungewöhnliches Verhalten wie Massenabfragen oder Übertragungen an unerwartete Ziele zu erkennen. Und ausgehende Datenflüsse werden gesteuert, damit kompromittierte Agents keine Daten über autorisierte Kanäle exfiltrieren können. Rollen- und attributbasierte Zugriffskontrollen müssen explizit auf nicht-menschliche Identitäten ausgeweitet werden – die meisten IAM-Systeme wurden nicht für Agents entwickelt.
Mehrere bedeutende Frameworks überschneiden sich inzwischen direkt mit der Governance von KI-Agents. Der EU AI Act sieht Bußgelder von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes für Hochrisikoverstöße vor und verlangt dokumentierte menschliche Kontrolle und Datenrückverfolgbarkeit. Die DSGVO fordert eine rechtmäßige Grundlage und angemessene Schutzmaßnahmen für jede Verarbeitung personenbezogener Daten – auch durch automatisierte Agents. HIPAA verlangt Zugriffskontrollen und Audit-Trails für jedes System, das geschützte Gesundheitsdaten verarbeitet. CMMC verlangt FedRAMP-zertifizierte Lösungen für Bundesauftragnehmer, die kontrollierte, nicht klassifizierte Informationen verarbeiten. GLBA schreibt Schutzmaßnahmen für den Zugriff auf Finanzdaten vor. Mit 59 neuen Datenschutzvorschriften allein im vergangenen Jahr ist KI-Governance branchenübergreifend von einer Best Practice zur Compliance-Pflicht geworden.
Weitere Ressourcen
- Blogbeitrag Zero Trust Architektur: Niemals vertrauen, immer verifizieren
- Video Microsoft GCC High: Nachteile treiben Verteidigungsauftragnehmer zu intelligenteren Lösungen
- Blogbeitrag Wie Sie klassifizierte Daten sichern, sobald DSPM sie kennzeichnet
- Blogbeitrag Vertrauen in generative KI durch einen Zero-Trust-Ansatz aufbauen
- Video Der ultimative Leitfaden für die sichere Speicherung sensibler Daten für IT-Führungskräfte