KI-Agents sind die größte Bedrohung für die Datensicherheit, die Sie nicht kontrollieren
Im vergangenen Jahr hat sich in der Unternehmenssicherheit still und leise etwas verändert – und die meisten Unternehmen haben es nicht bemerkt.
KI-Agents – autonome Systeme, die eigenständig denken, handeln und mit Unternehmensressourcen interagieren – sind von Pilotprojekten in produktive Arbeitsabläufe übergegangen. Sie passen Cloud-Ressourcenzuteilungen an, führen mehrstufige Geschäftsprozesse aus, fragen Datenbanken ab und interagieren mit externen APIs. Sie tun dies mit erheblicher Eigenständigkeit, in Maschinengeschwindigkeit und oft ohne ständige menschliche Kontrolle.
Und hier liegt das Problem, das jeden CISO beunruhigen sollte: Die Sicherheitsinfrastruktur, die diese Agents steuern soll, hält mit deren Einsatz nicht Schritt. Nicht einmal annähernd.
Der Cyber Pulse Report von Microsoft bestätigt, dass über 80 % der Fortune-500-Unternehmen inzwischen aktive KI-Agents einsetzen – viele davon mit Low-Code- und No-Code-Tools, die die Erstellung von Agents in die Hände von Business-Anwendern legen, nicht nur von Entwicklern. Derselbe Bericht spricht eine deutliche Warnung aus: Diese Agents „skalieren schneller, als manche Unternehmen sie überhaupt wahrnehmen“. Diese fehlende Transparenz ist kein kleines Ärgernis. Microsoft bezeichnet sie als Geschäftsrisiko, das dringend Governance und Sicherheit erfordert.
Die Frage ist nicht mehr, ob Ihr Unternehmen KI-Agents einsetzen wird. Sondern, ob Sie sie steuern, bevor sie eine Datenpanne verursachen, die Sie nicht mehr eindämmen können.
5 wichtige Erkenntnisse
- KI-Agents skalieren schneller, als Sicherheitsteams sie wahrnehmen können. Über 80 % der Fortune-500-Unternehmen setzen inzwischen aktive KI-Agents ein, die mit Low-Code- und No-Code-Tools entwickelt wurden. Der Cyber Pulse Report von Microsoft warnt: Diese Agents „skalieren schneller, als manche Unternehmen sie überhaupt wahrnehmen“, was eine Transparenzlücke schafft, die explizit als Geschäftsrisiko benannt wird. Wenn autonome Systeme eigenständig denken, handeln und auf Unternehmensressourcen zugreifen können, ist fehlende Governance kein Lücke – sondern eine offene Tür.
- Jede dritte Organisation sieht unüberwachten Datenzugriff durch KI-Agents als kritische Bedrohung. Laut Proofpoints 2025 Data Security Landscape Report betrachten 32 % der Unternehmen unüberwachten Datenzugriff durch KI-Agents als kritische Bedrohung. Diese Agents agieren oft als hochprivilegierte „Superuser“ und greifen mit deutlich weniger Kontrolle als jeder menschliche Mitarbeiter auf sensible Daten in Cloud- und Hybrid-Umgebungen zu.
- KI-Agents können durch versteckte Anweisungen ohne Nutzerinteraktion missbraucht werden. Trend Micro hat gezeigt, dass multimodale KI-Agents durch versteckte Anweisungen in Bildern oder Dokumenten manipuliert werden können, sodass sensible Daten ohne jeglichen Nutzerklick exfiltriert werden. Forscher auf arXiv entwickelten einen End-to-End-Exploit, bei dem versteckte Anweisungen auf einer bösartigen Blogseite einen RAG-basierten Agenten dazu brachten, Geheimnisse aus seiner Wissensdatenbank abzurufen und an einen vom Angreifer kontrollierten Server zu senden.
- 44 % der Unternehmen haben keine ausreichende Kontrolle über den Einsatz generativer KI. Proofpoint fand heraus, dass 44 % der Unternehmen zugeben, keine ausreichende Kontrolle über den Einsatz generativer KI – einschließlich Tools und Agents – zu haben. Die Cloud Security Alliance berichtet von einer deutlichen Wahrnehmungslücke: 52 % der Führungskräfte geben an, mit KI-Technologien vertraut zu sein, aber nur 11 % der Mitarbeitenden – also genau jene, die diese Tools täglich nutzen.
- Die Governance-Lücke ist eine finanzielle Zeitbombe. Ein durchschnittlicher Datenschutzverstoß kostet inzwischen 4,88 Millionen US-Dollar (IBM Cost of a Data Breach Report, 2024). Die Strafen nach dem EU AI Act reichen bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes. DSGVO-Bußgelder erreichen 20 Millionen Euro oder 4 % des Umsatzes. Mit einem Anstieg von KI-bezogenen Datenschutzvorfällen um 56,4 % im Jahresvergleich (Stanford 2025 AI Index Report) sind Unternehmen ohne nachweisbare KI-Governance einem wachsenden finanziellen und rechtlichen Risiko ausgesetzt.
Der Agentic Workspace ist Realität – und die meisten Unternehmen haben keinen Einblick
Proofpoints 2025 Data Security Landscape Report hat einen Begriff geprägt, der die aktuelle Lage perfekt beschreibt: den „agentic workspace“. Damit ist eine Arbeitsumgebung gemeint, in der KI-gesteuerte Produktivitätstools und autonome Agents gemeinsam mit Menschen sensible Daten verarbeiten. Das Fazit des Berichts ist eindeutig: Viele Unternehmen „fehlt die Transparenz und Kontrolle, um diesen neuen agentic workspace zu steuern“.
Die Zahlen dahinter sind alarmierend. Fast die Hälfte der Befragten sieht die unkontrollierte Verteilung von Daten über Cloud- und Hybrid-Umgebungen als zentrales Problem. Zwei von fünf Unternehmen nennen Datenverlust durch öffentliche oder unternehmensinterne generative KI-Tools als Hauptsorge. Über ein Drittel befürchtet, dass sensible Daten für das Training von KI-Modellen verwendet werden. Und 32 % der Unternehmen sehen unüberwachten Datenzugriff durch KI-Agents – oft als hochprivilegierte „Superuser“ – als kritische Bedrohung.
Besonders gefährlich ist die Diskrepanz zwischen Wahrnehmung und Realität. Die Cloud Security Alliance fand heraus, dass 52 % der Führungskräfte angeben, mit KI-Technologien vertraut zu sein, aber nur 11 % der Mitarbeitenden. Das ist ein Governance-Gefälle. Diejenigen, die über KI-Richtlinien entscheiden, überschätzen oft die Bereitschaft ihres Unternehmens, während die tatsächlichen Nutzer das nötige Verständnis für einen sicheren Umgang mit KI-Tools nicht haben.
Gleichzeitig geben 44 % der Unternehmen zu, keine ausreichende Kontrolle über den Einsatz generativer KI zu haben – einschließlich der Tools, die Mitarbeitende täglich nutzen, und der Agents, die immer stärker in Unternehmensabläufe eingebettet werden.
Sie vertrauen darauf, dass Ihr Unternehmen sicher ist. Aber können Sie es auch nachweisen?
Jetzt lesen
So werden KI-Agents zur Waffe: Prompt Injection und Datenexfiltration
Wäre die fehlende Transparenz das einzige Problem, wäre es beherrschbar. Doch KI-Agents schaffen nicht nur passive Risiken – sie können aktiv zur Waffe werden. Die Forschung dazu ist aktuell und alarmierend.
Trend Micro hat nachgewiesen, dass multimodale KI-Agents durch versteckte Anweisungen in Bildern oder Dokumenten manipuliert werden können. Der Angriff erfordert keinerlei Nutzerinteraktion. Ein Dokument oder Bild mit versteckten Prompts kann dazu führen, dass ein Agent sensible Daten exfiltriert – darunter personenbezogene Daten wie Namen, Sozialversicherungsnummern und Kontaktdaten, Finanzinformationen, geschützte Gesundheitsdaten, Geschäftsgeheimnisse, Authentifizierungsdaten und vertrauliche hochgeladene Dokumente – ohne dass der Nutzer es bemerkt.
Die Angriffsfläche reicht bis ins Web. Trend Micro zeigte, dass Web-Parsing-Agents eingebettete bösartige Prompts auf Websites auslesen können, die den Agenten anweisen, im Arbeitsspeicher gespeicherte Daten – wie API-Schlüssel oder Kontaktdaten – an vom Angreifer kontrollierte Ziele zu senden. Ist ausgehender Traffic erlaubt, wird der Agent zur unfreiwilligen Datenpipeline für den Angreifer.
Forscher, die auf arXiv publizierten, sind noch weiter gegangen. Sie entwickelten einen vollständigen End-to-End-Exploit gegen einen RAG-basierten KI-Agenten, der Tools nutzte, um eine interne Wissensdatenbank mit sensiblen Projektgeheimnissen abzufragen und externe Webinhalte abzurufen. Eine bösartige Blogseite enthielt versteckte, weiß-auf-weiß geschriebene Anweisungen, die für Menschen unsichtbar waren. Als der Agent gebeten wurde, die Seite zusammenzufassen, nahm er diese Anweisungen auf und führte sie aus – rief das Geheimnis aus seiner Wissensdatenbank ab, bettete es in einen URL-Parameter ein und sendete es mit dem vorgesehenen Websuche-Tool an einen vom Angreifer kontrollierten Server.
Das Fazit der Studie sollte alle Sicherheitsverantwortlichen aufhorchen lassen: Aktuelle LLM-Agents mit Tool-Nutzung und RAG weisen eine „grundlegende Verwundbarkeit“ gegenüber indirekten Prompt-Injection-Angriffen auf, und eingebaute Sicherheitsmechanismen der Modelle reichen ohne zusätzliche Schutzebenen nicht aus.
Das ist keine Theorie. Es handelt sich um nachgewiesene Angriffe auf genau die Agenten-Architekturen, die Unternehmen heute einsetzen.
Drei Schwachstellen, die sich zur Krise summieren
Das Risikoprofil von KI-Agents lässt sich auf drei sich verstärkende Schwachstellen zurückführen, die zusammen eine nie dagewesene Gefährdung für Unternehmen schaffen.
Die erste Schwachstelle ist übermäßiger Datenzugriff – der enorme Umfang an Daten, auf die Agents zugreifen können. KI-Agents benötigen breite Datenzugriffsrechte, um effektiv zu arbeiten. Doch genau das schafft eine riesige Angriffsfläche. Unternehmen haben im Schnitt 15.000 veraltete, aber noch aktive Konten mit über 31.000 veralteten Berechtigungen (Varonis 2025 State of Data Security Report). Jeder KI-Agent vergrößert diese Angriffsfläche als nicht-menschliche Identität zusätzlich. Klassisches Identity- und Access-Management wurde für Menschen entwickelt, nicht für Maschinen. Oft fehlt die Granularität, um das Prinzip der minimalen Rechte für autonome Systeme durchzusetzen, die Daten mit einer Geschwindigkeit anfordern, verarbeiten und übertragen können, die kein menschlicher Anwender je erreichen würde.
Die zweite Schwachstelle ist unkontrollierte Datennutzung – die Art der Daten, die Agents verarbeiten, und wohin diese Daten gelangen. Studien zeigen: Die größte Gruppe von Unternehmen – 27 % – gibt zu, dass mehr als 30 % der an KI-Tools gesendeten Informationen vertrauliche Daten enthalten, darunter Sozialversicherungsnummern, medizinische Unterlagen, Kreditkartendaten und geschütztes geistiges Eigentum. Weitere 17 % haben keinerlei Einblick, was Mitarbeitende überhaupt teilen. Gelangen diese Daten einmal in das Trainingsset eines öffentlichen Modells, können sie nicht mehr zurückgeholt, gelöscht oder kontrolliert werden. Die Kontamination ist dauerhaft.
Die dritte Schwachstelle ist die Manipulation von Agents – etwa durch Prompt Injection, bösartige Skills und Supply-Chain-Angriffe. KI-Agents, die mit externen Diensten, Plugins und Agenten-Netzwerken interagieren, sind anfällig für genau die indirekten Prompt-Injection-Angriffe, die Trend Micro und die arXiv-Forscher demonstriert haben. Ein kompromittiertes KI-Skill kann sich innerhalb von Stunden über Agenten-Netzwerke verbreiten. Autonome Agents lassen sich dazu bringen, Zugangsdaten zu exfiltrieren, auf vertrauliche Dateien zuzugreifen und Compliance-Verstöße zu verursachen – alles in Maschinengeschwindigkeit, weit schneller als jede menschliche Insider-Bedrohung.
Diese drei Schwachstellen existieren nicht isoliert. Sie verstärken sich gegenseitig. Ein Agent mit übermäßigem Zugriff, der unkontrollierte Daten verarbeitet und manipulierbar ist, ist nicht nur ein Risiko – sondern eine Datenpanne, die nur darauf wartet, zu passieren.
Shadow AI verschärft das Problem
Zu diesen strukturellen Schwachstellen kommt das Problem der Shadow AI. Fast die Hälfte der Nutzer generativer KI verlässt sich auf persönliche, nicht genehmigte KI-Anwendungen, die völlig außerhalb der Sichtbarkeit des Unternehmens agieren. Mitarbeitende laden regelmäßig Quellcode, regulierte Daten und geistiges Eigentum in diese Tools hoch – etwa zum Zusammenfassen, Debuggen oder zur Inhaltserstellung – oft ohne zu wissen, dass die Daten zum Training öffentlicher Modelle verwendet werden können.
Das Ausmaß ist enorm. Im Durchschnitt verzeichnet ein Unternehmen 223 KI-bezogene Verstöße gegen Datenrichtlinien pro Monat, wobei Quellcode 42 % und regulierte Daten 32 % der Vorfälle ausmachen (Netskope Cloud and Threat Report 2026). KI-bezogene Datenschutzvorfälle stiegen um 56,4 % im Jahresvergleich (Stanford 2025 AI Index Report). Und 98 % der Unternehmen haben Mitarbeitende, die nicht genehmigte Anwendungen nutzen – im Schnitt 1.200 inoffizielle Apps pro Unternehmen (Varonis 2025 State of Data Security Report).
Nur 17 % der Unternehmen verfügen über technische Kontrollen, die den Zugriff auf öffentliche KI-Tools in Kombination mit DLP-Scanning blockieren. Weitere 40 % verlassen sich ausschließlich auf Schulungen und Audits. Und 13 % haben keinerlei Richtlinien.
KI komplett zu blockieren ist keine Lösung – das weiß jedes Unternehmen, das es versucht hat. Mitarbeitende finden Umgehungsmöglichkeiten. Sie nutzen private Accounts. Sie laden Daten von ihren Handys in kostenlose Tools hoch. Das Ergebnis ist nicht weniger KI-Nutzung, sondern unsichtbare KI-Nutzung – und die ist deutlich gefährlicher.
Die Governance-Lücke ist größer, als Unternehmen zugeben
Trotz dieser wachsenden Risiken sind die meisten Unternehmen unvorbereitet. Nur 12 % verfügen über dedizierte KI-Governance-Strukturen, während 55 % überhaupt keinen Rahmen haben. Nur 9 % erreichen das von Analysten als „bereit“ eingestufte Niveau an KI-Governance, obwohl 23 % sich selbst als „sehr gut vorbereitet“ einschätzen – eine 14-Punkte-Überlegenheitslücke, die selbst ein Risiko darstellt.
Gleichzeitig fehlt 86 % der Unternehmen die Transparenz über KI-Datenflüsse, und 45 % nennen den Druck, schnell zu implementieren, als größtes Governance-Hindernis. Bei technischen Führungskräften steigt dieser Wert auf 56 %. Das Ergebnis ist ein branchenübergreifendes Muster: Unternehmen setzen KI-Agents produktiv ein, während ihre Governance-, Sicherheits- und Compliance-Infrastruktur noch für eine Welt ausgelegt ist, in der nur Menschen auf sensible Daten zugreifen konnten.
Das regulatorische Umfeld wartet nicht darauf, dass Unternehmen aufholen. Allein im vergangenen Jahr wurden 59 neue Datenschutzgesetze verabschiedet. Der EU AI Act sieht Strafen von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes für Hochrisikoverstöße vor. DSGVO-Bußgelder können 20 Millionen Euro oder 4 % des Umsatzes erreichen. Branchenspezifische Vorgaben wie HIPAA, SOX, GLBA und CMMC bringen zusätzliche Compliance-Anforderungen, die direkt damit verknüpft sind, wie KI-Agents auf sensible Daten zugreifen, sie verarbeiten und übertragen.
Zero Trust für KI-Agents: Das passende Sicherheitsmodell
Microsofts Cyber Pulse Report formuliert die Lösung mit Begriffen, die Sicherheitsexperten bestens kennen: Zero Trust. Der Bericht überträgt die gleichen Zero-Trust-Prinzipien, die Unternehmen für menschliche Anwender anwenden, auch auf Agents – also das Prinzip der minimalen Rechte, explizite Verifizierung von „wer oder was“ Zugriff anfordert, und die Annahme eines Kompromisses als Designprinzip.
Dieses Framework ist intuitiv nachvollziehbar. KI-Agents sind Identitäten. Sie authentifizieren sich, fordern Zugriff an, führen Aktionen aus. Dass sie keine Menschen sind, macht sie nicht weniger gefährlich – sondern gefährlicher, weil sie mit einer Geschwindigkeit und Skalierung arbeiten, für die menschzentrierte Sicherheitskontrollen nie ausgelegt waren.
Zero Trust im agentic workspace bedeutet: Jeder KI-Agent muss als eigene Identität behandelt werden, die Authentifizierung und Autorisierung benötigt. Zugriffsrechte müssen auf die minimal erforderlichen Berechtigungen für jede Aufgabe beschränkt werden. Jede Dateninteraktion muss in einem unveränderlichen Audit-Trail protokolliert werden. Anomalieerkennung muss in Maschinengeschwindigkeit erfolgen, um mit den Agenten mitzuhalten. Und ausgehende Datenflüsse müssen so gesteuert werden, dass keine Exfiltration möglich ist – egal ob durch einen kompromittierten Agenten, eine manipulierte Eingabe oder einen falsch konfigurierten Workflow ausgelöst.
Trend Micros Forschung bestätigt diesen Ansatz: Sie empfehlen robuste Zugriffskontrollen, fortschrittliche Inhaltsfilterung und Echtzeit-Monitoring, um Datenabfluss und unautorisierte Aktionen zu verhindern. Auch die arXiv-Forscher kommen zum gleichen Schluss: Eingebaute Modell-Sicherheitsfunktionen reichen nicht aus. Zusätzliche Verteidigungsschichten sind erforderlich.
So sieht die richtige Infrastruktur aus
Die Absicherung des agentic workspace erfordert Infrastruktur, die auf der Datenebene arbeitet – nicht nur auf der Netzwerkebene. Netzwerksicherheit – etwa das Überwachen des Traffics über Proxys – erkennt zwar, dass ein Mitarbeiter eine KI-Anwendung besucht hat. Sie kann aber nicht steuern, auf welche konkreten Daten ein KI-Agent in Unternehmens-Repositories zugreift, keine granulare Richtlinien zur Datennutzung durchsetzen und auch keinen inhaltlichen Audit-Trail liefern, wie ihn Aufsichtsbehörden zunehmend verlangen.
Die Infrastruktur, die die KI-Governance-Lücke schließt, muss mehrere Kernmerkmale erfüllen: Sie muss ein sicheres Gateway zwischen KI-Systemen und Unternehmensdaten bieten, in dem Zero-Trust-Prinzipien bei jeder Interaktion durchgesetzt werden. Sie muss die Ausführung von KI-Agents in einer Sandbox isolieren, sodass kompromittierte Plugins oder Skills keinen Zugriff über ihren berechtigten Rahmen hinaus erhalten. Sie muss bestehende Governance-Frameworks – rollen- und attributbasierte Zugriffskontrollen – auf alle KI-Interaktionen ausweiten, auch auf solche, die von autonomen Agents ausgehen. Sie muss jede KI-Dateninteraktion in einem unveränderlichen Audit-Trail mit Anwenderidentität, Zeitstempel, genutzten Daten und verwendetem KI-System protokollieren. Und sie muss Anomalien in Maschinengeschwindigkeit erkennen, etwa wenn ein Agent plötzlich ungewöhnlich große Datenmengen anfordert oder versucht, Daten an ungewöhnliche Ziele zu senden.
Das Kiteworks Private Data Network ist speziell für diese Herausforderung entwickelt. Das AI Data Gateway schafft eine Zero-Trust-Brücke zwischen KI-Systemen und Unternehmensdaten, sodass Daten nie die geschützte Umgebung verlassen. Der Secure MCP Server von Kiteworks isoliert die Ausführung von KI-Agents mit OAuth 2.0-Authentifizierung, Anomalieerkennung und Durchsetzung des Governance-Frameworks. Und die einheitliche Multi-Channel-Governance deckt Filesharing, Managed File Transfer, E-Mail, Web-Formulare, APIs und KI-Interaktionen unter einer zentralen Richtlinien-Engine mit einem einzigen unveränderlichen Audit-Trail ab.
Für Unternehmen in regulierten Branchen ist Flexibilität bei der Bereitstellung entscheidend. Kiteworks unterstützt On-Premises, Private Cloud, hybride Umgebungen und FedRAMP High – mit vordefinierten Compliance-Kontrollen für HIPAA, SOX, DSGVO, CCPA, CMMC, NIST CSF, ISO 27001 und den EU AI Act.
Warten kostet: Datenpannen, Bußgelder und irreparabler Schaden
Das finanzielle Argument für KI-Daten-Governance ist eindeutig. Ein durchschnittlicher Datenschutzverstoß kostet 4,88 Millionen US-Dollar. Im Gesundheitswesen liegt dieser Wert bei 10,93 Millionen US-Dollar (IBM Cost of a Data Breach Report, 2024). EU AI Act-Strafen für Hochrisikoverstöße können 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes erreichen. DSGVO-Bußgelder liegen bei bis zu 20 Millionen Euro oder 4 %. Verluste durch Software-Supply-Chain-Angriffe werden branchenweit auf 60 Milliarden US-Dollar geschätzt.
Doch der größte Schaden lässt sich kaum beziffern: Geistiges Eigentum, das dauerhaft in öffentliche KI-Trainingssets gelangt. Einmal in ein öffentliches Modell eingespeist, lässt sich proprietäres Wissen nicht mehr zurückholen, löschen oder kontrollieren. Der Wettbewerbsnachteil ist unumkehrbar.
Unternehmen, die jetzt KI-Governance auf Datenebene umsetzen, reduzieren nicht nur Risiken. Sie verschaffen sich einen Wettbewerbsvorteil – sie können KI schneller, sicherer und mit dokumentiertem Compliance-Nachweis einsetzen, wie es Regulierer, Auditoren und Kunden zunehmend verlangen.
Drei Maßnahmen, die jedes Unternehmen jetzt ergreifen sollte
Erstens: Verschaffen Sie sich Transparenz über das, was bereits passiert. Sie können nur steuern, was Sie sehen. Setzen Sie Monitoring ein, das KI-Dateninteraktionen über alle Kanäle hinweg erfasst – nicht nur Web-Traffic, sondern auch Filesharing, E-Mail, APIs und Agenten-Workflows. Identifizieren Sie, wohin sensible Daten an KI-Systeme fließen und ob diese Flüsse autorisiert, protokolliert und konform sind. Wenn 44 % der Unternehmen zugeben, keine ausreichende Kontrolle zu haben, sollten Sie davon ausgehen, dass Ihr Unternehmen dazugehört – bis Sie das Gegenteil belegen können.
Zweitens: Wenden Sie Zero Trust auf jeden KI-Agenten an. Behandeln Sie jeden KI-Agenten als nicht-menschliche Identität, die dieselbe Authentifizierung, Autorisierung und Zugriffskontrolle wie ein menschlicher Anwender benötigt – ergänzt um Schutzmechanismen für Maschinengeschwindigkeit. Setzen Sie das Prinzip minimaler Rechte um. Isolieren Sie die Agenten-Ausführung. Überwachen Sie anomales Verhalten. Stellen Sie sicher, dass kein Agent auf mehr Daten zugreifen kann, als für seine Aufgabe erforderlich ist.
Drittens: Ermöglichen Sie KI mit integrierter Governance – blockieren Sie sie nicht. Unternehmen, die versuchen, KI komplett zu verbieten, werden scheitern. Mitarbeitende finden Umgehungen, und Shadow AI breitet sich aus. Der nachhaltige Ansatz ist eine Infrastruktur, die produktive KI-Nutzung ermöglicht, während sensible Daten nie die geschützte Umgebung verlassen. Governance, die automatisch und im Hintergrund abläuft, ohne die Produktivität zu beeinträchtigen, ist das einzige skalierbare Modell.
Die KI-Revolution im Unternehmen steht nicht bevor – sie ist da. Die Frage ist, ob Ihr Unternehmen sie steuert – oder von ihren Folgen gesteuert wird.
Erfahren Sie, wie Kiteworks Sie unterstützen kann – vereinbaren Sie noch heute eine individuelle Demo.
Häufig gestellte Fragen
Klassische KI-Chatbots reagieren auf Eingaben innerhalb einer begrenzten Oberfläche und führen keine eigenständigen Aktionen aus. KI-Agents sind grundlegend anders – sie denken, planen und handeln autonom über die Unternehmensgrenzen hinweg, fragen Datenbanken ab, rufen APIs auf, führen mehrstufige Prozesse aus und übertragen Daten mit minimaler menschlicher Kontrolle. Diese Autonomie schafft das Sicherheitsrisiko. Ein Agent beantwortet nicht nur eine Frage, sondern agiert als privilegierte nicht-menschliche Identität mit Zugriff auf sensible Daten in einer Geschwindigkeit und Skalierung, für die klassische Sicherheitskontrollen nie ausgelegt waren. Wird ein Agent kompromittiert oder manipuliert, kann er tausende Datensätze exfiltrieren, bevor ein Alarm ausgelöst wird.
Indirekte Prompt Injection bettet versteckte Anweisungen in Inhalte ein, die ein KI-Agent verarbeitet – etwa ein Dokument, Bild oder eine Webseite – und überschreibt so die ursprüngliche Programmierung des Agents. Wenn der Agent den Inhalt verarbeitet, führt er die Anweisungen des Angreifers aus. Trend Micro hat gezeigt, dass dies zur Datenexfiltration ohne Nutzerinteraktion führt. ArXiv-Forscher entwickelten einen funktionierenden Exploit, bei dem ein RAG-basierter Agent interne Geheimnisse abrief und an einen Server des Angreifers übermittelte. Klassische Sicherheitstools – DLP, Firewalls, Endpoint Protection – können dies nicht verhindern, da die Exfiltration über legitime, autorisierte Kanäle erfolgt, die der Agent ohnehin nutzen darf.
Shadow AI bezeichnet die Nutzung nicht genehmigter KI-Tools durch Mitarbeitende – persönliche Accounts, kostenlose Produkte, Browser-Erweiterungen – ohne Wissen oder Kontrolle des Unternehmens. Studien zeigen: 98 % der Unternehmen haben Mitarbeitende, die nicht genehmigte Anwendungen nutzen, und im Schnitt gibt es 223 KI-bezogene Verstöße gegen Datenrichtlinien pro Monat. Die Exposition ist dauerhaft: Werden Quellcode, medizinische Daten, Finanzdaten oder geistiges Eigentum in ein öffentliches KI-Modell hochgeladen, können diese Daten ins Trainingsset des Modells gelangen. Sie lassen sich danach nicht mehr zurückholen, löschen oder kontrollieren. KI komplett zu blockieren löst das Problem nicht – es verlagert die Nutzung ins Verborgene und schafft unsichtbare statt kontrollierbarer Risiken.
Zero Trust für KI-Agents folgt denselben Prinzipien wie für menschliche Anwender, ergänzt um Schutzmaßnahmen für Maschinengeschwindigkeit. Jeder Agent wird als eigene Identität behandelt, die explizite Authentifizierung und Autorisierung erfordert. Der Zugriff wird auf die minimal für die jeweilige Aufgabe erforderlichen Daten beschränkt – kein breiter Repository-Zugriff. Jede Dateninteraktion wird in einem unveränderlichen Audit-Trail protokolliert. Anomalieerkennung läuft in Maschinengeschwindigkeit, um ungewöhnliches Verhalten wie Massenanfragen oder Übertragungen an unerwartete Ziele zu erkennen. Und ausgehende Datenflüsse werden so gesteuert, dass kompromittierte Agents keine Daten über autorisierte Kanäle exfiltrieren können. Rollen- und attributbasierte Zugriffskontrollen müssen explizit auf nicht-menschliche Identitäten ausgeweitet werden – die meisten IAM-Systeme wurden nicht für Agents entwickelt.
Mehrere große Frameworks überschneiden sich inzwischen direkt mit der Governance von KI-Agents. Der EU AI Act sieht Strafen bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes für Hochrisikoverstöße vor und verlangt dokumentierte menschliche Kontrolle und Datenrückverfolgbarkeit. Die DSGVO fordert eine rechtmäßige Grundlage und angemessene Schutzmaßnahmen für jede Verarbeitung personenbezogener Daten – auch durch automatisierte Agents. HIPAA verlangt Zugriffskontrollen und Audit-Trails für jedes System, das geschützte Gesundheitsdaten verarbeitet. CMMC fordert FedRAMP-zertifizierte Lösungen für Bundesauftragnehmer, die kontrollierte, nicht klassifizierte Informationen verarbeiten. GLBA schreibt Schutzmaßnahmen für den Zugriff auf Finanzdaten vor. Mit 59 neuen Datenschutzgesetzen allein im letzten Jahr ist KI-Governance branchenübergreifend von der Best Practice zur Compliance-Pflicht geworden.
Weitere Ressourcen
- Blogbeitrag Zero Trust Architecture: Never Trust, Always Verify
- Video Microsoft GCC High: Nachteile, die Verteidigungsunternehmen zu intelligenteren Lösungen treiben
- Blogbeitrag Wie man klassifizierte Daten sichert, sobald DSPM sie erkannt hat
- Blogbeitrag Vertrauen in generative KI aufbauen mit einem Zero-Trust-Ansatz
- Video Der ultimative Leitfaden für die sichere Speicherung sensibler Daten für IT-Leiter