Das Agentic-AI-Sicherheitsparadox: Warum der Einsatz von KI zum Schutz Ihres Unternehmens Ihre größte Schwachstelle sein könnte
Hier ist die Falle, über die fast niemand spricht.
Sicherheitsteams benötigen KI-Agents, um sich gegen KI-gestützte Angriffe zu verteidigen. Doch genau diese Agents schaffen die Datenrisiken, die sie eigentlich verhindern sollen.
Das ist kein hypothetisches Szenario, sondern ein Befund. Der Ivanti 2026 State of Cybersecurity Report: Bridging the Divide basiert auf Einblicken von über 1.200 Cybersicherheits-Profis weltweit und zeigt: 87 % der Sicherheitsteams sehen die Integration agentischer KI als Priorität. 77 % fühlen sich wohl dabei, autonome Systeme ohne menschliche Kontrolle agieren zu lassen. Die Nachfrage nach KI-gestützter Verteidigung ist enorm.
Doch derselbe Bericht zeigt auch die Kehrseite: Unternehmen fehlt es an Prozessen und Kompetenzen, um KI sicher zu betreiben. Der Drang, KI zur Verteidigung einzusetzen – getrieben durch zunehmende Bedrohungen, Alarmmüdigkeit, Fachkräftemangel und fragmentierte Tools – überholt die notwendige Governance, die verhindern soll, dass KI selbst zum Risiko wird.
Ivantis CSO Daniel Spicer spricht vom „Cybersecurity Readiness Deficit“ – einer wachsenden Lücke zwischen den Bedrohungen, denen Unternehmen ausgesetzt sind, und ihrer Fähigkeit, sich dagegen zu verteidigen. Die Hoffnung: KI soll diese Lücke schließen. Ohne Governance vergrößert sie sie jedoch.
5 wichtige Erkenntnisse
- 87 % der Sicherheitsteams priorisieren agentische KI – können sie aber nicht sicher betreiben. Der Ivanti 2026 State of Cybersecurity Report, basierend auf einer Umfrage unter mehr als 1.200 Cybersicherheits-Profis weltweit, zeigt: 87 % der Sicherheitsteams sehen die Integration agentischer KI als Priorität. Doch es gibt eine entscheidende Lücke: Die meisten Unternehmen verfügen nicht über die Prozesse und Fähigkeiten, um KI-Agents sicher einzusetzen. Die Bereitschaft übertrifft die tatsächliche Vorbereitung deutlich.
- Sicherheits-KI-Agents benötigen Zugriff auf die gefährlichsten Daten im Unternehmen. Um effektiv zu sein, brauchen Sicherheits-KI-Agents Zugriff auf Sicherheitsprotokolle, Ergebnisse von Schwachstellenscans, Threat Intelligence, Identitäts- und Zugriffsdaten, Netzwerktopologie und Incident-Response-Dokumentation. Genau diese Informationen würden Angreifer nutzen, um Ihre gesamte Verteidigung zu kartieren. Einer KI ohne Governance Zugriff auf diese Daten zu gewähren, ist wie einem Fremden den Bauplan Ihres Tresors zu übergeben.
- Das Cybersecurity Readiness Deficit wächst weiter. Ivanti identifiziert ein „Cybersecurity Readiness Deficit“ – eine wachsende Lücke zwischen den Bedrohungen und der Verteidigungsfähigkeit von Unternehmen. 77 % der Unternehmen waren bereits Ziel von Deepfake-Angriffen, aber nur 27 % fühlen sich sehr gut vorbereitet. Die Lücke zwischen Risikobewusstsein und tatsächlicher Vorbereitung beträgt 21 Prozentpunkte.
- IT- und Sicherheitsteams arbeiten gegeneinander. Fast die Hälfte (48 %) der Sicherheitsexperten sagt, dass IT-Teams nicht schnell genug auf Cybersicherheitsbedenken reagieren, während 40 % glauben, dass die IT das Risikoverständnis des Unternehmens nicht teilt. Gerade bei KI-Agents, die funktionsübergreifende Governance erfordern, ist diese Kluft besonders problematisch.
- Burnout ist eine systemische Schwachstelle – kein reines Personalproblem. 43 % der Sicherheitsexperten berichten von hoher Belastung, 79 % sagen, dass dies ihre körperliche und mentale Gesundheit beeinträchtigt. Der Mangel an qualifizierten Fachkräften ist das größte Hindernis für Cybersecurity-Exzellenz. Ausgerechnet diese überlasteten Teams sollen KI-Agents sicher steuern.
Auf welche Daten Sicherheits-KI-Agents wirklich zugreifen müssen – und warum das beunruhigend ist
Überlegen Sie, was ein Sicherheits-KI-Agent für seine Arbeit benötigt. Kein Produktivitäts-Chatbot, der Meeting-Notizen zusammenfasst. Kein Marketing-Tool, das E-Mail-Texte erstellt. Ein Security-Agent – entwickelt für Threat Detection, Incident Response oder Schwachstellenmanagement.
Er braucht Zugriff auf Ihre Sicherheitsprotokolle und SIEM-Daten: Firewall-Logs, Intrusion-Detection-Alerts, Authentifizierungsprotokolle, Endpoint-Telemetrie. Werden diese offengelegt, erfahren Angreifer, was Sie erkennen können – und was nicht. Er benötigt Ergebnisse von Schwachstellenscans: ungepatchte Systeme, Fehlkonfigurationen, ausnutzbare Schwachstellen. Werden diese offengelegt, erhalten Angreifer eine vollständige Roadmap. Er braucht Threat Intelligence: Indikatoren für Kompromittierungen, Taktiken und Techniken, Incident-Response-Playbooks. Werden diese offengelegt, kennen Angreifer Ihre Verteidigungsfähigkeiten und Schwachstellen. Er braucht Identitäts- und Zugriffsdaten: Benutzerkonten, privilegierte Zugangsdaten, Zugriffsmuster, Authentifizierungsmethoden. Werden diese offengelegt, erhalten Angreifer Wege für Credential Theft und Privilegieneskalation. Und er braucht Netzwerktopologie: Netzpläne, kritische Systeme, Datenflussdiagramme, Segmentierungsgrenzen. Werden diese offengelegt, haben Angreifer eine vollständige Angriffsoberfläche.
Das ist das Paradox im Kern der Ivanti-Erkenntnisse: 87 % der Sicherheitsteams wollen KI-Agents Zugriff auf genau diese Daten geben – die sensibelsten Informationen im Unternehmen –, um die Bedrohungserkennung und Reaktion zu verbessern. Doch die meisten verfügen nicht über die Governance, um dies zu tun, ohne genau das Risiko zu schaffen, das sie verhindern wollen.
Wird ein Sicherheits-KI-Agent kompromittiert oder falsch konfiguriert, leakt er nicht nur Kundendaten oder Finanzdaten. Er legt Ihre gesamte Verteidigungsstrategie offen. Ein Angreifer, der einen Security-Agent kompromittiert, erhält die Schlüssel zum Königreich: was Sie erkennen, was nicht, wo Ihre Systeme verwundbar sind und wie Sie auf Vorfälle reagieren. Angreifer können aus Ihren vergangenen Datenschutzverstößen lernen, um ihre nächsten Angriffe zu verbessern.
Sie vertrauen darauf, dass Ihr Unternehmen sicher ist. Aber können Sie es auch nachweisen?
Jetzt lesen
Dualer KI-Agent-Ansatz: Geschäftsrisiko trifft Sicherheitsrisiko
Ivantis Bericht erscheint zu einem Zeitpunkt, an dem Unternehmen bereits Schwierigkeiten haben, KI-Agents im Business-Bereich zu steuern. Der Microsoft Cyber Pulse Report bestätigt, dass über 80 % der Fortune-500-Unternehmen aktive KI-Agents einsetzen – und warnt, dass diese Agents „schneller skalieren, als manche Unternehmen sie überhaupt wahrnehmen“. Der Proofpoint 2025 Data Security Landscape Report beschreibt einen „agentischen Workspace“, für den den meisten Unternehmen Transparenz und Steuerungsmöglichkeiten fehlen. Und Proofpoint fand heraus, dass 32 % der Unternehmen unkontrollierten KI-Agent-Zugriff auf Daten als kritische Bedrohung einstufen.
Nun kommt eine zweite Front hinzu. Unternehmen setzen gleichzeitig KI-Agents für Security Operations ein – Threat Detection, Incident Response, Schwachstellenmanagement – mit völlig anderen Zugriffsanforderungen und einem ganz eigenen Risikoprofil.
Business-KI-Agents greifen auf Kundendaten, Finanzdaten, geistiges Eigentum und Verträge zu. Das Risiko: Datenabfluss an öffentliche KI-Modelle, Schatten-KI und Prompt Injection. Sicherheits-KI-Agents greifen auf Protokolle, Threat Intelligence, Schwachstellen, Identitäten und Netzarchitektur zu. Das Risiko: Offenlegung der gesamten Sicherheitsstrategie, Angriffsoberflächen-Mapping für Angreifer und Credential-Leakage.
Das Problem: Die meisten Unternehmen setzen KI-Agents in beiden Bereichen ein – ohne einheitliche Governance. Die Business-Seite hat ihre Governance-Lücken. Die Security-Seite ihre eigenen. Und beide sprechen selten miteinander – eine Dynamik, die Ivantis Daten bestätigen: 48 % der Sicherheitsexperten sagen, die IT reagiere nicht schnell genug auf Cybersicherheitsbedenken, 40 % sehen ein mangelndes Risikoverständnis in der IT.
Alarmmüdigkeit, Fachkräftemangel und Automatisierungsdruck
Ivantis Bericht erklärt, warum Sicherheitsteams so schnell auf agentische KI setzen – und warum genau dieses Tempo Risiken schafft.
Alarmmüdigkeit belastet Security Operations massiv. Teams werden von der Menge an Alerts überwältigt, die sie priorisieren, untersuchen und bearbeiten müssen. 92 % der Befragten sagen, dass Automatisierung die Reaktionszeiten verkürzt. KI-Agents, die Alerts triagieren, Threat Intelligence korrelieren und Reaktionen priorisieren, sind kein Luxus – sondern überlebenswichtig. Doch wer im Alarm untergeht, prüft nicht immer die Sicherheitszertifikate des Rettungsseils.
Fachkräftemangel verschärft das Problem. Fehlende Fachkräfte sind laut Ivanti das größte Hindernis für Cybersecurity-Exzellenz. 43 % der Sicherheitsexperten berichten von hoher Belastung, 79 % von negativen Auswirkungen auf die Gesundheit. Wenn zu wenig Personal vorhanden ist und dieses bereits am Limit arbeitet, ist die Versuchung groß, Aufgaben an KI-Agents zu delegieren – oft ohne ausreichende Governance. Der Fachkräftemangel ist nicht nur ein Personalproblem, sondern auch ein Governance-Problem, weil die für sichere KI-Einführung verantwortlichen Personen bereits überlastet sind.
Fragmentierte Tools verschärfen die Herausforderung. Sicherheits-KI-Agents benötigen Zugriff auf Daten aus verschiedenen Tools – SIEM, EDR, Schwachstellenscanner, Threat-Intelligence-Plattformen – jeweils mit eigenen Zugriffskontrollen und Audit-Funktionen. Ivanti identifiziert diese Fragmentierung als Hindernis für effektive KI-Automatisierung. Und fragmentierte Tools bedeuten fragmentierte Governance: Jedes Tool hat eigene Richtlinien, eigene Logformate, eigenes Zugriffsmodell. Operiert ein KI-Agent übergreifend, vervielfachen sich die Governance-Lücken.
Das Ergebnis ist ein Muster, das Ivantis Daten deutlich machen: Sicherheitsteams setzen KI-Agents unter Druck und mit hoher Geschwindigkeit ein, ohne die Prozesse, um dies sicher zu tun. Die Einführung läuft der Vorbereitung weit voraus – wie zuvor im Business-Bereich.
Angriffe auf KI-Agents sind bereits Realität
Wäre die Governance-Lücke nur ein Compliance-Thema, wäre das schon ernst genug. Doch die Bedrohung ist aktiv und nachgewiesen.
Trend Micro Forschung zu KI-Agent-Schwachstellen zeigt, dass multimodale KI-Agents durch versteckte Anweisungen in Bildern oder Dokumenten manipuliert werden können, sodass sensible Daten ohne Nutzerinteraktion exfiltriert werden. Betroffen sind unter anderem personenbezogene Daten, Finanzinformationen, geschützte Gesundheitsdaten, Geschäftsgeheimnisse, Authentifizierungsdaten und vertrauliche Dokumente (Trend Micro Executive Brief).
Forscher auf arXiv entwickelten einen vollständigen Ende-zu-Ende-Exploit gegen einen RAG-basierten KI-Agenten. Eine bösartige Webseite mit versteckten Anweisungen veranlasste den Agenten, Geheimnisse aus seiner Knowledge Base abzurufen und an einen angreiferkontrollierten Server zu senden – über das legitime Websuche-Tool des Agents als Exfiltrationskanal. Ihr Fazit: Aktuelle LLM-Agents mit Tool-Nutzung und RAG sind grundsätzlich anfällig für indirekte Prompt Injection, und eingebaute Sicherheitsfeatures reichen ohne zusätzliche Schutzschichten nicht aus.
Übertragen Sie diese Angriffsvektoren auf einen Sicherheits-KI-Agenten: Ein Agent mit Zugriff auf Schwachstellenscan-Ergebnisse, manipuliert durch Prompt Injection, könnte Ihre komplette Liste ungepatchter Systeme an Angreifer senden. Ein Agent mit Zugriff auf Incident-Response-Playbooks, kompromittiert durch ein bösartiges Plugin, könnte exakt offenlegen, wie Sie auf Angriffe reagieren – und Angreifern eine Schritt-für-Schritt-Anleitung liefern, Ihre Abwehr zu umgehen. Ein Agent mit Zugriff auf Identitätsdaten könnte privilegierte Zugangsdaten und Eskalationspfade offenlegen.
Das ist keine Spekulation. Die Angriffsvektoren sind bewiesen. Die Daten, auf die Sicherheits-KI-Agents zugreifen müssen, sind genau die, die Angreifer am meisten begehren. Das einzige fehlende Element ist Governance – und laut Ivanti fehlt sie in den meisten Unternehmen.
77 % bereits von Deepfakes betroffen. Nur 27 % vorbereitet. Jetzt kommen KI-Agents dazu.
Ivantis Bericht zeigt eine weitere Dimension, die direkt mit der Governance von KI-Agents verknüpft ist. 77 % der Unternehmen waren bereits Ziel von Deepfake-Angriffen, mehr als die Hälfte erlebte ausgefeilte, personalisierte Phishing-Attacken mit Deepfake-Technologie. 48 % sehen synthetische digitale Inhalte als hohe oder kritische Bedrohung – aber nur 27 % fühlen sich sehr gut vorbereitet. Das ist eine 21-Prozentpunkte-Lücke zwischen Bewusstsein und Bereitschaft.
Nur 30 % der Sicherheitsexperten trauen ihrem CEO zu, einen Deepfake zuverlässig zu erkennen. Und in genau diesem Umfeld setzen Unternehmen autonome KI-Agents mit weitreichendem Zugriff auf sensible Systeme ein.
Entscheidend ist die Konvergenz: KI-gestützte Angriffe werden immer ausgefeilter. Sicherheitsteams setzen KI-Agents zur Abwehr ein. Diese Agents benötigen Zugriff auf die sensibelsten Sicherheitsdaten im Unternehmen. Und die Governance, um alles abzusichern, existiert in den meisten Unternehmen noch nicht.
Was Governance für Sicherheits-KI-Agents wirklich bedeutet
Der Microsoft Cyber Pulse Report empfiehlt Zero Trust für Agents – dieselben Prinzipien wie für menschliche Nutzer: Least-Privilege-Zugriff, explizite Verifizierung von „wer oder was“ Zugriff verlangt, und das Prinzip „Assume Breach“ als Designgrundsatz. Für Sicherheits-KI-Agents bedeutet das ganz konkret:
Sicherheits-KI-Agents müssen Bedrohungsdaten über ein gesteuertes Gateway abrufen, nicht über direkte Datenbankverbindungen. Ein Threat-Detection-Agent braucht keinen Zugriff auf Schwachstellenscan-Ergebnisse. Ein Alert-Triage-Agent braucht keinen Zugriff auf Netzwerktopologie. Jeder Agent darf nur auf die Daten zugreifen, die für seine Funktion notwendig sind – nicht mehr. Jeder Zugriff muss authentifiziert und autorisiert werden, jede Interaktion wird in einem unveränderlichen Audit-Trail protokolliert, der exakt nachvollziehen lässt, welche Daten wann abgerufen wurden und was der Agent damit gemacht hat.
Sandboxed Execution ist unerlässlich. KI-Agents müssen in isolierten Umgebungen laufen, die seitliche Bewegungen bei Kompromittierung verhindern. DLP-Kontrollen müssen verhindern, dass Sicherheitsdaten – Protokolle, Schwachstellenscans, Threat Intelligence – an externe KI-Dienste abfließen. Anomalie-Erkennung muss ungewöhnliche Zugriffsmuster erkennen, etwa wenn ein Agent plötzlich große Mengen Schwachstellendaten anfordert, die er sonst nicht nutzt.
Und entscheidend: Unternehmen brauchen eine einheitliche Governance für Business-KI und Sicherheits-KI. Getrennte Governance-Frameworks für Produktivitäts- und Sicherheits-Agents schaffen dieselbe Fragmentierung, die Ivanti als Hindernis für effektive Security Automation identifiziert. Eine Plattform, eine Policy Engine, ein Audit-Trail – für alle KI-Agents im Unternehmen, unabhängig von ihrer Funktion.
Das Kiteworks Private Data Network bietet diese Governance-Schicht. Das AI Data Gateway schafft eine Zero-Trust-Brücke zwischen KI-Systemen – einschließlich Sicherheits-KI-Agents – und Unternehmensdaten, sodass vertrauliche Informationen nie die geschützte Umgebung verlassen. Der Secure MCP Server von Kiteworks kapselt die Agent-Ausführung mit OAuth 2.0-Authentifizierung, Anomalie-Erkennung und Durchsetzung bestehender Governance-Frameworks. Die einheitliche Multi-Channel-Governance deckt Filesharing, Managed File Transfer, E-Mail, Web-Formulare, APIs und KI-Interaktionen unter einer einzigen Policy Engine mit einem einzigen unveränderlichen Audit-Trail ab.
Konkret bedeutet das für Sicherheits-KI-Agents: Ein Threat-Detection-Agent erhält gesteuerten Zugriff auf Alert-Daten, aber keinen Zugriff auf Schwachstellenscans oder Netzwerktopologie. Ein Incident-Response-Agent erhält nur die Daten, die er für seine Funktion benötigt – alles protokolliert und revisionssicher. Und wenn ein Agent kompromittiert wird, kann das Unternehmen exakt nachvollziehen, welche Daten offengelegt wurden – mit forensischer Nachweisbarkeit für Aufsichtsbehörden und Auditoren.
Die Risiken gehen weit über Datenpannen hinaus
Die finanziellen Risiken durch fehlende KI-Governance sind bereits gut dokumentiert. Die durchschnittlichen Kosten einer Datenpanne liegen bei 4,88 Millionen US-Dollar; im Gesundheitswesen sogar bei 10,93 Millionen (IBM Cost of a Data Breach Report, 2024). Die Strafen nach EU AI Act erreichen 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes. DSGVO-Bußgelder liegen bei 20 Millionen Euro oder 4 % des Umsatzes.
Doch ein kompromittierter Sicherheits-KI-Agent verursacht Schäden, die über die Kosten einer Datenpanne hinausgehen. Wenn Angreifer Zugriff auf Ihre Schwachstellenscan-Ergebnisse erhalten, müssen sie Ihre Systeme nicht mehr auf Schwachstellen prüfen – sie haben die Liste bereits. Wenn sie Ihre Incident-Response-Playbooks bekommen, können sie Angriffe gezielt so planen, dass sie Ihre Abwehr umgehen. Wenn sie Ihre Netzwerktopologie kennen, können sie seitliche Bewegungen planen, bevor sie überhaupt in Ihr Netzwerk eindringen.
Das ist der Unterschied zwischen einer Datenpanne und einer vollständigen strategischen Kompromittierung. Und genau dieses Risiko gehen 87 % der Sicherheitsteams ein, wenn sie KI-Agents ohne die notwendige Governance einsetzen.
Drei Prioritäten für Unternehmen beim Einsatz von Sicherheits-KI-Agents
Erstens: Wenden Sie Least-Privilege-Zugriff für Sicherheits-KI-Agents mit derselben – besser noch: größerer – Strenge an wie für menschliche Nutzer. Ein Alert-Triage-Agent sollte nur auf Alert-Daten zugreifen. Ein Schwachstellenmanagement-Agent nur auf Schwachstellendaten. Keiner sollte Zugriff auf das jeweilige andere Fachgebiet haben. Ordnen Sie für jeden Sicherheits-KI-Agenten die minimal notwendigen Datenzugriffe zu und erzwingen Sie diese Grenzen über ein gesteuertes Data Gateway – nicht über das Vertrauen in die eingebauten Sicherheitsfeatures des Modells, die laut Forschung nicht ausreichen.
Zweitens: Vereinheitlichen Sie die Governance für Business-KI und Sicherheits-KI auf einer einzigen Plattform. Ivanti identifiziert fragmentierte Tools als Hindernis für effektive Security Automation. Fragmentierte KI-Governance ist noch schlimmer. Getrennte Richtlinien, getrennte Audit-Trails und getrennte Zugriffskontrollen für Produktivitäts- und Sicherheits-Agents schaffen Blind Spots an den Schnittstellen – genau dort, wo Angreifer ansetzen. Eine einzige Policy Engine, ein Audit-Trail und eine zentrale Transparenzschicht für alle KI-Agents im Unternehmen ist die einzige skalierbare Architektur.
Drittens: Bauen Sie Incident-Response-Fähigkeiten für KI-Agent-Kompromittierung, bevor Sie sie brauchen. Wenn ein Sicherheits-KI-Agent kompromittiert wird: Können Sie rekonstruieren, auf welche Daten er zugegriffen hat? Können Sie feststellen, ob Schwachstellenscans, Threat Intelligence oder Identitätsdaten exfiltriert wurden? Können Sie Aufsichtsbehörden nachweisen, dass der Agent bis zum Zeitpunkt der Kompromittierung innerhalb genehmigter Grenzen agiert hat? Unveränderliche Audit-Logs, SIEM-Integration und Chain-of-Custody-Dokumentation sind keine Option – sie sind die Grundlage für KI-Incident-Response.
Ivantis Bericht beschreibt einen Moment echter Spannung in der Cybersicherheit. Sicherheitsteams stehen unter enormem Druck – durch steigende Bedrohungen, Fachkräftemangel, Burnout und das wachsende Readiness Deficit. Agentische KI bietet einen echten Weg nach vorn. Aber nur, wenn die Governance existiert, die verhindert, dass sie zur größten Insider-Bedrohung im Unternehmen wird.
Die 87 %, die agentische KI priorisieren, liegen richtig. Die Frage ist, ob sie sie absichern, bevor sie die Daten für die falschen Personen absichert.
Erfahren Sie, wie Kiteworks Sie unterstützen kann – vereinbaren Sie noch heute eine individuelle Demo.
Häufig gestellte Fragen
Business-KI-Agents greifen in der Regel auf Kundendaten, Verträge und Finanzdaten zu – wertvolle Ziele, aber begrenzt im Umfang. Sicherheits-KI-Agents müssen auf SIEM-Daten, Schwachstellenscan-Ergebnisse, Incident-Response-Playbooks, Identitäts- und Zugriffsdaten sowie Netzwerktopologie zugreifen. Wird ein Sicherheits-Agent kompromittiert oder durch Prompt Injection manipuliert, erhält ein Angreifer nicht nur sensible Datensätze – er bekommt eine vollständige Karte Ihrer Verteidigungsstrategie: was Sie erkennen, wo Ihre Systeme ungepatcht sind und wie Sie auf Angriffe reagieren. Der Schaden durch einen kompromittierten Sicherheits-Agenten ist ungleich größer.
Das Paradox: Genau die KI-Agents, die Sicherheitsteams zur Abwehr hochentwickelter, KI-gestützter Angriffe brauchen, benötigen breiten Zugriff auf die sensibelsten Sicherheitsdaten des Unternehmens – also genau jene Daten, die sie bei Kompromittierung zu katastrophalen Zielen machen. Ivantis 2026-Report zeigt: 87 % der Sicherheitsteams priorisieren agentische KI, aber die meisten verfügen nicht über die Governance-Prozesse für einen sicheren Einsatz. Die Dringlichkeit – Alarmmüdigkeit, Fachkräftemangel, steigende Bedrohungen – erschwert die sichere Einführung zusätzlich. Tempo und Druck sind die Feinde der Governance, die KI-Agents sicher macht.
Prompt Injection bettet versteckte Anweisungen in Inhalte ein, die ein KI-Agent verarbeitet – etwa ein Dokument, eine Webseite oder einen Datenfeed – und überschreibt so die ursprüngliche Programmierung. Trend Micro hat gezeigt, dass dies ohne Nutzerinteraktion funktioniert; arXiv-Forscher entwickelten einen Exploit, der das eigene Websuche-Tool eines RAG-basierten Agents als Exfiltrationskanal nutzte. Für einen Sicherheits-Agenten mit Zugriff auf Schwachstellendaten oder Threat Intelligence ist eine erfolgreiche Injection katastrophal. Eingebaute Sicherheitsfunktionen des Modells reichen nicht aus – notwendig sind ein gesteuertes Data Gateway mit Zero-Trust-Zugriff, sandboxed Execution und DLP-Kontrollen für ausgehende Datenströme.
Zero Trust für KI-Agents bedeutet, jeden Agenten als eigenständige, nicht-menschliche Identität zu behandeln, die vor jeder Datenanforderung explizit authentifiziert werden muss. Der Zugriff ist auf die minimal für die jeweilige Aufgabe erforderlichen Daten beschränkt – ein Threat-Detection-Agent erhält nur Zugriff auf Alert-Daten, nicht auf Schwachstellenscans oder Netzdiagramme. Jede Interaktion wird in einem unveränderlichen Audit-Trail protokolliert. Sandboxed Execution verhindert seitliche Bewegungen bei Kompromittierung. Anomalie-Erkennung erkennt ungewöhnliche Muster – etwa Massenabfragen oder Übertragungen an unerwartete Ziele – in Echtzeit. Entscheidend: Zugriffskontrollen müssen auf Datenebene durch ein gesteuertes Gateway durchgesetzt werden, nicht durch Vertrauen in das KI-Modell selbst.
Ein KI-Incident-Response-Plan muss drei Fragen schnell beantworten: Auf welche Daten hat der kompromittierte Agent zugegriffen, sind Daten aus der Umgebung abgeflossen, und können Sie Aufsichtsbehörden nachweisen, dass der Agent bis zum Vorfall innerhalb genehmigter Grenzen agiert hat? Dafür braucht es unveränderliche Audit-Logs, die jede Agenten-Interaktion erfassen – Nutzeridentität, Zeitstempel, abgerufene Daten, durchgeführte Aktionen – kombiniert mit SIEM-Integration für Echtzeit-Alerts und Chain-of-Custody-Dokumentation für forensische und Compliance-Anforderungen. Unternehmen, die diese Infrastruktur vor einem Vorfall aufbauen, können den Schaden eindämmen und dokumentieren. Wer sie erst nachträglich einführt, tappt im Dunkeln.
Weitere Ressourcen
- Blogbeitrag Zero Trust Architektur: Niemals vertrauen, immer verifizieren
- Video Microsoft GCC High: Nachteile treiben Verteidigungsunternehmen zu intelligenteren Lösungen
- Blogbeitrag Wie Sie klassifizierte Daten schützen, nachdem DSPM sie erkannt hat
- Blogbeitrag Vertrauen in Generative KI mit Zero Trust schaffen
- Video Der definitive Leitfaden für die sichere Speicherung sensibler Daten für IT-Leiter