Es ist nicht die KI, die unsicher ist. Es ist der Zugriff, den Sie ihr gewähren.
Im Teleport-Bericht „State of AI in Enterprise Infrastructure Security 2026″ gibt es eine Zahl, die jeden CISO aufhorchen lassen sollte: 4,5-fach.
Unternehmen mit überprivilegierten KI-Systemen erleiden 4,5-mal häufiger Sicherheitsvorfälle als solche mit Least-Privilege-Kontrollen. Nicht doppelt so oft. Nicht nur etwas stärker gefährdet. Sondern viereinhalbmal so häufig. Der Bericht bezeichnet dies als den wichtigsten Prädiktor für KI-bezogene Vorfälle – noch vor Branche, Reifegrad oder dem angegebenen Vertrauen in die KI-Sicherheit.
Teleport-CEO Ev Kontsevoy bringt es auf den Punkt: Die Daten sind eindeutig. Nicht die KI ist unsicher. Es ist der Zugriff, den wir ihr gewähren.
Diese Aussage verändert die gesamte Diskussion über KI-Sicherheit. Das Risiko besteht nicht darin, dass KI-Systeme von Natur aus gefährlich sind. Das Risiko ist, dass Unternehmen KI mit Zugriffsrechten ausstatten, die kein Mensch in einer vergleichbaren Rolle erhalten würde – und dann durch Vorfälle feststellen, dass überprovisionierter Zugriff mit Maschinengeschwindigkeit Konsequenzen im Masstab von Maschinen erzeugt.
5 wichtige Erkenntnisse
- Überprivilegierte KI ist der wichtigste Prädiktor für Sicherheitsvorfälle. In Unternehmen, in denen KI-Systeme mehr Zugriffsrechte haben als nötig, liegt die Vorfallrate bei 76 %. Mit Least-Privilege-Kontrollen sinkt sie auf nur 17 %. Das ist ein Unterschied um den Faktor 4,5 – und laut Teleport-Bericht der entscheidende Prädiktor für KI-bezogene Vorfälle, noch vor Branche, Reifegrad oder Vertrauen. Die KI ist nicht das Problem. Der Zugriff, den Unternehmen ihr gewähren, ist es.
- 70 % der KI-Systeme haben mehr Zugriffsrechte als ein Mensch in derselben Rolle. Fast drei Viertel der Befragten gaben an, dass ihre KI-Systeme mehr Rechte besitzen als ein Mensch mit vergleichbaren Aufgaben. Ein Fünftel sagte, ihre KI erhält deutlich mehr Rechte. Das ist keine marginale Überprovisionierung, sondern ein strukturelles Versagen im Umgang mit Zugriffsrechten für nicht-menschliche Identitäten – und schafft genau die Bedingungen für die dokumentierten Vorfälle.
- 85 % der Sicherheitsverantwortlichen sorgen sich um KI-Risiken – basierend auf realen Erfahrungen, nicht auf Theorie. Es handelt sich nicht um hypothetische Bedenken. Ein Drittel der Befragten bestätigte mindestens einen KI-bezogenen Vorfall. Weitere 24 % vermuten, dass ein solcher Vorfall stattgefunden hat. Die Sorge ist in der operativen Realität begründet: Unternehmen sehen echte Produktivitätsgewinne durch KI – schnellere Vorfalluntersuchungen (66 %), bessere Dokumentation (71 %), gesteigerte Engineering-Leistung (65 %) – erleben aber gleichzeitig die Sicherheitsfolgen von KI mit zu weitreichendem Zugriff.
- Statische Zugangsdaten fördern Privilegienausweitung bei KI. Passwörter, API-Schlüssel und langlebige Tokens sind der Mechanismus, durch den KI-Systeme zu viele Rechte ansammeln. Unternehmen mit hoher Abhängigkeit von statischen Zugangsdaten berichten von einer Vorfallrate von 67 %, gegenüber 47 % bei geringer Abhängigkeit. Statische Zugangsdaten laufen nicht ab, passen sich nicht an und erzwingen keine kontextabhängigen Zugriffsentscheidungen. Sie sind das Berechtigungsmodell von 2015, angewendet auf die KI-Infrastruktur von 2026.
- 64 % der Unternehmen haben keine formalen Governance-Kontrollen für KI-Infrastruktur. 43 % der Unternehmen geben an, keine formalen Governance-Kontrollen für KI-Infrastruktur zu haben. Weitere 21 % haben überhaupt keine Kontrollen. Zusammengenommen sind das fast zwei Drittel der Unternehmen, die KI in ihre Infrastruktur einführen, ohne die Governance-Strukturen, die Überprivilegierung verhindern, Vorfälle erkennen oder Compliance nachweisen können. Die KI ist bereits im Einsatz. Die Kontrollen fehlen.
Das Zugriffsproblem in Zahlen
Teleport befragte über 200 US-Sicherheitsverantwortliche für Infrastruktur, um den Bericht zu erstellen. KI in der Infrastruktur wurde definiert als KI-gestützte Workloads, agentische Systeme, Machine-to-Machine-Kommunikation, ChatOps, Compliance-Automatisierung und Vorfallerkennung. Die Ergebnisse zeigen eine Branche, die die Produktivitätsvorteile von KI nutzt, aber den Zugriff der KI-Systeme nicht ausreichend steuert.
70 % der Befragten sagten, ihre KI-Systeme hätten mehr Zugriffsrechte als ein Mensch in derselben Rolle. 19 % gaben an, ihre KI erhalte deutlich mehr Zugriff. Bei überprivilegierten KI-Systemen liegt die Vorfallrate bei 76 %. Mit Least-Privilege-Kontrollen sinkt sie auf 17 %. Der Unterschied ist nicht graduell, sondern grundlegend.
Statische Zugangsdaten – Passwörter, API-Schlüssel und langlebige Tokens – sind der Hauptmechanismus für diese Überprivilegierung. Unternehmen mit hoher Abhängigkeit von statischen Zugangsdaten berichten von einer Vorfallrate von 67 %, gegenüber 47 % bei geringer Abhängigkeit. Statische Zugangsdaten laufen nicht von selbst ab. Sie passen sich nicht dem Kontext an. Sie begrenzen den Zweck nicht. Nach der Ausgabe gewähren sie dauerhaften Zugriff, bis jemand daran denkt, sie zu widerrufen.
Die Governance-Lücke verschärft das Problem. 43 % der Unternehmen haben keine formalen Governance-Kontrollen für KI-Infrastruktur. Weitere 21 % haben überhaupt keine Kontrollen. Das bedeutet, dass fast zwei Drittel der Unternehmen KI in ihre Infrastruktur einführen, ohne einen strukturierten Ansatz für das Zugriffsmanagement dieser Systeme zu haben. Die KI-Systeme laufen bereits produktiv. Die Governance-Rahmenwerke sind noch in Planung.
Sie vertrauen darauf, dass Ihr Unternehmen sicher ist. Aber können Sie es auch nachweisen?
Jetzt lesen
Identity Management für Infrastruktur ist notwendig – aber nicht ausreichend.
Der Teleport-Bericht erkennt korrekt, dass sich Identity Management für KI weiterentwickeln muss. 69 % der Sicherheitsverantwortlichen stimmen zu. Doch die erforderliche Entwicklung ist grundlegender, als die Empfehlungen des Berichts nahelegen.
Traditionelles Identity Management beantwortet die Frage: Wer oder was ist diese Entität und auf welche Systeme kann sie zugreifen? Für KI-Agenten bedeutet das die Verwaltung der Authentifizierung zu Servern, APIs, Datenbanken und Cloud-Infrastruktur. Plattformen wie Teleport adressieren diese Ebene. Sie verwalten KI-Agenten-Identitäten, stellen Zugangsdaten aus und steuern den Zugriff auf Infrastrukturressourcen.
Doch hier liegt die Lücke: Ein KI-Agent mit gültigen Infrastruktur-Zugangsdaten und korrekter Authentifizierung kann trotzdem auf Daten zugreifen, auf die er keinen Zugriff haben sollte. Infrastrukturzugriff und Datenzugriff sind nicht dasselbe. Ein KI-Agent, der auf einen Datenbankserver authentifiziert ist, kann standardmäßig jede Tabelle und jeden Datensatz abfragen. Ein KI-Agent mit API-Zugriff auf ein File-Repository kann standardmäßig jede Datei lesen. Die Infrastrukturidentität ist verifiziert. Der Datenzugriff bleibt ungesteuert.
Hier entsteht der 4,5-fache Multiplikator. Überprivilegierte KI bedeutet nicht, dass Zugangsdaten gestohlen oder Identitäten kompromittiert wurden. Es bedeutet, dass KI mit legitimen Zugriffsrechten auf Infrastruktur ausgestattet ist, die weit mehr Daten enthält, als für die jeweilige Funktion erforderlich. Der Vorfall beginnt nicht mit einem Authentifizierungsfehler, sondern mit einer zu weit gefassten Autorisierung.
Um diese Lücke zu schließen, sind daten-zentrierte Zugriffskontrollen erforderlich, die unabhängig von der Infrastrukturidentität agieren. Selbst wenn ein KI-Agent gültige Zugangsdaten für ein System hat, erzwingen daten-zentrierte Kontrollen, auf welche Daten innerhalb dieses Systems der Agent zugreifen darf, zu welchem Zweck und unter welchen Bedingungen. Das ist der Unterschied zwischen der Verwaltung, wer die KI ist, und der Steuerung, was die KI mit den Daten tun darf, die sie erreicht.
Wie daten-zentrierte Kontrollen für KI in der Praxis aussehen
Um überprivilegierte KI zu verhindern, sind Kontrollen auf Datenebene erforderlich – nicht nur auf Infrastrukturebene. Was bedeutet das konkret?
Least-Privilege-Datenzugriff als Standard bedeutet, dass ein authentifizierter KI-Agent nur auf die für seine Funktion erforderlichen Datenklassifikationen zugreifen kann. Ein Vorfallerkennungs-KI-Agent kann auf Systemprotokolle zugreifen, aber nicht auf Kunden-Personenbezogene Daten. Ein Compliance-Automatisierungs-KI kann Audit-Trail-Metadaten analysieren, aber nicht die zugrunde liegenden sensiblen Datensätze. Ein ChatOps-Bot kann Betriebsstatusdaten abrufen, aber keine Finanzdaten. Die Zugriffsschranke wird auf Datenebene gezogen, nicht auf Systemebene.
Purpose Binding beschränkt KI-Agenten auf bestimmte Datenquellen und Use Cases. Der Zugriff der KI wird nicht durch die erreichbaren Systeme definiert, sondern durch den vorgesehenen Zweck. Beginnt ein Vorfallerkennungs-KI-Agent plötzlich, Kundenfinanzdaten abzufragen, wird dieser Zugriff blockiert und gemeldet – unabhängig davon, ob die KI gültige Infrastruktur-Zugangsdaten für das System mit diesen Daten besitzt.
Kontinuierliche Verifizierung bedeutet, dass jede KI-Datenanfrage anhand aktueller Richtlinien neu bewertet wird. Nicht einmal authentifizieren und für immer auf alle Daten zugreifen. Jede Abfrage, jeder Abruf, jede Interaktion mit Unternehmensdaten wird auf den autorisierten Zweck, die angeforderte Datenklassifikation und das aktuelle Risikoumfeld geprüft. So wird verhindert, dass KI-Systeme im Laufe der Zeit immer mehr Rechte ansammeln, ohne dass die Governance nachzieht.
Anomalieerkennung überwacht das Verhalten von KI-Agenten, um Abweichungen vom normalen Zugriffsmuster zu erkennen. Fordert ein KI-Agent, der normalerweise 50 Datensätze pro Stunde verarbeitet, plötzlich 5.000 an, oder greift ein Compliance-Tool auf neue Datenkategorien außerhalb seines Aufgabenbereichs zu, löst die Abweichung automatisierte Alarme aus und kann Kill Switches aktivieren, die den Datenzugriff des Agenten sofort entziehen.
Umfassende Audit-Trails dokumentieren jede KI-Interaktion mit Unternehmensdaten – was wurde wann, von welchem KI-Agenten, unter wessen Autorisierung abgerufen und welche Aktionen wurden durchgeführt. Diese Trails dienen nicht nur der Compliance-Berichterstattung. Sie bilden die forensische Grundlage für schnellere Vorfalluntersuchungen (66 %) und bessere Dokumentation (71 %), die der Teleport-Bericht als zentrale KI-Vorteile nennt. Ein KI-Vorfall, den Sie nicht sehen, können Sie nicht untersuchen.
Daten-zentrierte Kontrollen für verschiedene KI-Infrastruktur-Use Cases
Der Teleport-Bericht definiert KI-Infrastruktur breit: KI-gestützte Workloads, agentische Systeme, Machine-to-Machine-Kommunikation, ChatOps, Compliance-Automatisierung und Vorfallerkennung. Jeder dieser Use Cases erzeugt spezifische Anforderungen an den Datenzugriff – und spezifische Risiken durch Überprivilegierung.
KI-gestützte Workloads benötigen Zugriff auf Unternehmensdatenquellen, um zu funktionieren. Daten-zentrierte Kontrollen schaffen eine sichere Brücke zwischen Workload und Daten, indem sie Zero-Trust-Zugriffsrichtlinien durchsetzen, die den Zugriff auf die für die Funktion erforderlichen Datenklassifikationen beschränken. Die Workloads laufen mit Maschinengeschwindigkeit. Die Zugriffskontrollen arbeiten im gleichen Tempo.
Agentische KI-Systeme – autonome Agenten, die mehrstufige Prozesse ausführen, mit APIs interagieren und operative Entscheidungen treffen – bergen das höchste Überprivilegierungsrisiko, weil sie mit Daten agieren und nicht nur analysieren. Jeder Agent erzeugt eine nicht-menschliche Identität, die Authentifizierung, Autorisierung und kontinuierliches Monitoring erfordert. Daten-zentrierte Kontrollen stellen sicher, dass agentische KI nur die Rechte ihres autorisierenden menschlichen Nutzers erbt und diese Grenzen nicht überschreiten kann.
Machine-to-Machine-Kommunikation und ChatOps schaffen Datenkanäle, die ohne direkte menschliche Kontrolle für jede Interaktion funktionieren. Daten-zentrierte Kontrollen stellen sicher, dass diese Kanäle Datenzugriffsrichtlinien unabhängig von Geschwindigkeit oder Volumen der Anfragen einhalten. Wenn ein Slack- oder Teams-Bot im Auftrag eines Nutzers auf Unternehmensdaten zugreift, sorgt Kontextbewusstsein dafür, dass der Bot nur die Datenrechte dieses Nutzers erhält – nicht den umfassenden Systemzugriff des Service-Accounts.
Compliance-Automatisierung und Vorfallerkennung sind die Use Cases, bei denen Überprivilegierung am häufigsten rationalisiert wird. Das Argument lautet, diese Systeme bräuchten breiten Zugriff, um effektiv zu sein. Tatsächlich benötigen sie Zugriff auf Audit-Trail-Metadaten, aggregierte Metriken und Systemprotokolle – nicht auf die zugrunde liegenden sensiblen Daten. Ein Compliance-Tool kann Zugriffsmuster analysieren, ohne Patientendaten zu lesen. Ein Vorfallerkennungssystem kann anomales Verhalten identifizieren, ohne die zugrunde liegenden Finanzdaten herunterzuladen.
Das Problem statischer Zugangsdaten ist ein Datenproblem
Der Teleport-Bericht identifiziert statische Zugangsdaten – Passwörter, API-Schlüssel und langlebige Tokens – als Haupttreiber für überprivilegierte KI. Unternehmen mit hoher Abhängigkeit von statischen Zugangsdaten berichten von einer Vorfallrate von 67 %. Der Bericht empfiehlt, diese Abhängigkeit als zentrale Gegenmaßnahme zu reduzieren.
Diese Empfehlung ist richtig, aber unvollständig. Der Ersatz statischer Zugangsdaten durch dynamische, kurzlebige Zugangsdaten löst das Authentifizierungsproblem auf Infrastrukturebene. KI-Agenten müssen ihre Identität häufiger nachweisen, und Zugangsdaten laufen ab, bevor sie missbraucht werden können. Aber dynamische Zugangsdaten allein lösen das Datenzugriffsproblem nicht. Ein KI-Agent mit einem frisch ausgestellten, korrekt berechtigten Infrastruktur-Token kann immer noch auf alle Daten zugreifen, für die dieses Token Rechte gewährt.
Die vollständige Lösung erfordert, daten-zentrierte Kontrollen über verbessertes Credential Management zu legen. Dynamische Zugangsdaten steuern den Infrastrukturzugriff. Datenklassifikation und Purpose Binding regeln, auf welche Daten die KI innerhalb dieser Infrastruktur zugreifen darf. Kontinuierliche Verifizierung stellt sicher, dass die Datenzugriffsrichtlinien bei jeder Anfrage durchgesetzt werden. Audit-Trails dokumentieren die gesamte Kette – von der Ausgabe der Zugangsdaten über den Infrastrukturzugriff bis zur Datenabfrage – und schaffen die Transparenz, um Vorfälle zu erkennen und zu untersuchen.
Dieser mehrschichtige Ansatz – Identity Management für Infrastruktur plus daten-zentrierte Zugriffskontrollen – reduziert den 4,5-fachen Vorfallmultiplikator. Keine Schicht allein reicht aus. Infrastrukturidentität ohne Datenkontrollen lässt die Überprivilegierungslücke auf Datenebene offen. Datenkontrollen ohne Infrastrukturidentität lassen die Authentifizierungslücke auf Systemebene offen. Defense-in-Depth erfordert beides.
Was Sicherheitsverantwortliche jetzt tun sollten
Implementieren Sie Least-Privilege-Datenzugriff für jedes aktuell eingesetzte KI-System. Prüfen Sie, auf welche Daten jeder KI-Agent heute zugreifen kann. Vergleichen Sie diesen Zugriff mit dem tatsächlichen Bedarf für die definierte Funktion. Beschränken Sie den Zugriff auf die minimal erforderlichen Datenklassifikationen. Diese Maßnahme adressiert den wichtigsten Prädiktor für Vorfälle laut Bericht.
Setzen Sie daten-zentrierte Zugriffskontrollen ein, die unabhängig von der Infrastrukturidentität funktionieren. Auch wenn KI-Agenten gültige Infrastruktur-Zugangsdaten haben, sollten daten-zentrierte Kontrollen festlegen, auf welche Daten sie zugreifen dürfen, zu welchem Zweck und unter welchen Bedingungen. Purpose Binding, attributbasierte Zugriffskontrolle und kontinuierliche Verifizierung auf Datenebene schließen die Lücke, die Identity Management allein nicht abdecken kann.
Ersetzen Sie statische Zugangsdaten durch dynamische, kurzlebige Credentials – und legen Sie Datenkontrollen darüber. Eliminieren Sie Passwörter, langlebige API-Schlüssel und dauerhafte Tokens für KI-Systeme. Wechseln Sie zu dynamischer Credential-Ausgabe mit automatischem Ablauf. Erkennen Sie jedoch, dass Credential-Reform allein das Datenzugriffsproblem nicht löst. Legen Sie Datenklassifikation, Purpose Binding und kontinuierliche Verifizierung darüber, um zu steuern, was KI mit dem durch Credentials erhaltenen Zugriff macht.
Erstellen Sie Governance-Rahmenwerke, bevor das nächste KI-System produktiv geht. 64 % der Unternehmen haben keine formalen Governance-Kontrollen für KI-Infrastruktur. Jede neue KI-Einführung ohne Governance vergrößert die Überprivilegierungslücke. Definieren Sie klare Richtlinien für KI-Datenzugriff, legen Sie Eskalationswege für KI-bezogene Vorfälle fest und weisen Sie explizite Verantwortlichkeiten für das KI-Risikomanagement zu. Das Governance-Rahmenwerk sollte stehen, bevor das KI-System seine ersten Zugangsdaten erhält.
Setzen Sie Anomalieerkennung und Kill Switches für KI-Datenzugriff ein. Überwachen Sie das Verhalten von KI-Agenten kontinuierlich anhand festgelegter Baselines. Bei abweichenden Zugriffsmustern – ungewöhnliche Datenvolumina, neue Datenkategorien, Aktivitäten außerhalb der Geschäftszeiten – lösen Sie automatisierte Alarme aus und entziehen Sie KI den Datenzugriff sofort. Der 4,5-fache Vorfallmultiplikator zeigt: Frühzeitige Erkennung überprivilegierter KI ist wichtiger als jede andere Einzelmaßnahme.
Erstellen Sie Audit-Trails, die die gesamte KI-Datenzugriffskette dokumentieren. Jede KI-Interaktion mit Unternehmensdaten sollte mit KI-Agenten-Identität, autorisierendem menschlichen Nutzer, abgerufener Datenklassifikation, Zeitstempel und Aktion protokolliert werden. Diese Trails ermöglichen die schnellere Vorfalluntersuchung und bessere Dokumentation, die der Bericht als zentrale KI-Vorteile nennt – und liefern die forensischen Nachweise für Vorfälle sowie die Compliance-Dokumentation für Aufsichtsbehörden.
Der 4,5-fache Multiplikator ist eine Entscheidung, kein Schicksal
Der Teleport-Bericht liefert eine ebenso unbequeme wie aufschlussreiche Erkenntnis: Die Unternehmen mit den meisten KI-Sicherheitsvorfällen sind nicht die, die am meisten KI einsetzen. Es sind die, die KI mit den meisten Zugriffsrechten ausstatten. Überprivilegierung, nicht Nutzung, ist der Risikofaktor.
Das bedeutet: Der 4,5-fache Vorfallmultiplikator ist eine Entscheidung. Unternehmen, die Least-Privilege-Datenzugriff umsetzen, daten-zentrierte Kontrollen mit Identity Management kombinieren, statische Zugangsdaten ersetzen, Governance-Rahmenwerke aufbauen und KI-Verhalten kontinuierlich überwachen, bewegen sich im Bereich der 17 %-Vorfallrate. Unternehmen, die KI mit breitem Zugriff, statischen Zugangsdaten und ohne Governance einsetzen, landen bei 76 %.
Die Produktivitätsvorteile sind real: Schnellere Vorfalluntersuchungen. Bessere Dokumentation. Verbesserte Engineering-Leistung. Kein Unternehmen sollte auf diese Vorteile verzichten. Das Private Data Network von Kiteworks bietet die daten-zentrierte Governance-Schicht – Purpose Binding, kontinuierliche Verifizierung, unveränderliche Audit-Trails und Anomalieerkennung – die reine Identity-Plattformen nicht leisten können. Doch um diese Vorteile zu nutzen, ohne 4,5-mal mehr Vorfälle zu riskieren, braucht es einen grundlegenden Wandel im Denken über KI-Zugriff: von der Infrastrukturebene zur Datenebene, von statischen Zugangsdaten zu kontinuierlicher Verifizierung und von Governance als Nachgedanke zu Governance als Voraussetzung.
Die KI ist nicht unsicher. Der Zugriff, den Sie ihr gewähren, ist es. Beheben Sie den Zugriff, und Sie beheben das Risiko.
Erfahren Sie, wie Kiteworks Sie unterstützen kann – vereinbaren Sie noch heute eine individuelle Demo.
Häufig gestellte Fragen
Infrastrukturzugriff steuert, auf welche Systeme, APIs und Server ein KI-Agent zugreifen kann – verwaltet über Identity- und Access-Management-Plattformen, die Agenten authentifizieren und Zugangsdaten ausstellen. Datenzugriff regelt, welche Informationen der Agent innerhalb dieser Systeme abrufen darf. Die kritische Lücke: Ein gültiges Infrastruktur-Credential gewährt standardmäßig Zugriff auf alle Daten eines Systems. Ein KI-Agent, der auf eine Datenbank authentifiziert ist, kann jede Tabelle abfragen; ein Agent mit API-Zugriff auf ein File-Repository kann jede Datei lesen. Der 4,5-fache Vorfallmultiplikator aus dem Teleport-Bericht entsteht genau hier – bei KI mit legitimen Infrastrukturzugriffen, die auf Daten zugreift, die weit über den eigentlichen Funktionsbedarf hinausgehen. Diese Lücke schließen Sie, indem Sie daten-zentrierte Kontrollen – Purpose Binding, attributbasierte Zugriffskontrolle, kontinuierliche Verifizierung – über das Infrastruktur-IAM legen, nicht stattdessen.
Purpose Binding ist eine daten-zentrierte Kontrolle, die den Zugriff eines KI-Agenten nicht nach den Systemen definiert, auf die er sich authentifizieren kann, sondern nach dem, wofür er bestimmt ist. Ein Compliance-Automatisierungsagent erhält Zugriff auf Audit-Trail-Metadaten und aggregierte Metriken – nicht auf die zugrunde liegenden Patientendaten oder Finanzdaten, die diese Logs beschreiben. Ein Vorfallerkennungs-KI-Agent erhält Zugriff auf Systemprotokolle – nicht auf Kunden-Personenbezogene Daten oder Engineering-Konfigurationsdateien. Versucht der Agent, Daten außerhalb seines definierten Zwecks abzufragen – selbst mit gültigen Infrastruktur-Zugangsdaten – wird diese Anfrage blockiert und gemeldet. So wird die Privilegienausweitung verhindert, die entsteht, wenn KI-Systeme im Laufe der Zeit immer mehr Rechte ansammeln, und die Rationalisierung beseitigt, dass Compliance- oder Detection-Tools breiten Zugriff benötigen. Das tun sie nicht. Sie brauchen Zugriff auf die richtigen Daten, eng zugeschnitten auf ihre Funktion.
Statische Zugangsdaten – Passwörter, API-Schlüssel und langlebige Tokens – ermöglichen Privilegienausweitung bei KI auf zwei Arten. Erstens laufen sie nicht ab, d. h. der bei der Einführung gewährte Zugriff bleibt unbegrenzt bestehen, sofern er nicht manuell entzogen wird – was selten passiert, wenn sich die Funktion des KI-Systems ändert. Zweitens werden sie meist bei der Ausgabe festgelegt und nie überarbeitet, selbst wenn sich der Aufgabenbereich des KI-Agenten ändert oder verkleinert. Unternehmen mit hoher Abhängigkeit von statischen Zugangsdaten berichten von einer KI-Vorfallrate von 67 %, bei geringer Abhängigkeit sind es 47 %. Die Lösung ist die Vergabe dynamischer, kurzlebiger Zugangsdaten mit automatischem Ablauf – so müssen KI-Agenten sich häufiger neu authentifizieren und Credentials können nicht länger als vorgesehen genutzt werden. Doch Credential-Reform allein löst das Datenzugriffsproblem nicht: Ein KI-Agent mit einem frisch ausgestellten dynamischen Token kann immer noch auf alle Datensätze des Systems zugreifen, für das er authentifiziert ist. Dynamische Zugangsdaten müssen mit Purpose Binding und Data Loss Prevention-Kontrollen kombiniert werden, die steuern, auf welche Daten der Agent innerhalb der Infrastruktur zugreifen darf.
ChatOps-Bots und Machine-to-Machine-KI stellen eine besondere Governance-Herausforderung dar: Sie agieren mit Maschinengeschwindigkeit über viele Interaktionen hinweg, sodass eine menschliche Prüfung jeder Anfrage nicht praktikabel ist. Das Governance-Modell muss sich von der menschlichen Freigabe jeder Interaktion hin zur automatischen Durchsetzung vordefinierter Zugriffsrichtlinien verschieben. Jeder Bot oder Agent erhält eine eigene nicht-menschliche Identität mit einem klar definierten Zweck – die Zugriffsschranke wird bei der Einführung gesetzt und bei jeder Anfrage automatisch durchgesetzt. Die Vererbung des Nutzerkontexts ist entscheidend: Greift ein Slack- oder Teams-Bot im Auftrag eines Nutzers auf Unternehmensdaten zu, sollte er nur die Datenrechte dieses Nutzers erben – nicht den umfassenden Systemzugriff des Service-Accounts. Zero-Trust-Prinzipien gelten direkt: Jede Datenanfrage gilt als nicht vertrauenswürdig, bis sie anhand der aktuellen Richtlinie geprüft ist, unabhängig vom bisherigen Verhalten des Agenten. Unveränderliche Audit-Trails, die jede Interaktion erfassen, bilden die menschliche Kontrollschicht, die in Echtzeit nicht möglich ist.
Ein KI-Audit-Trail, der sowohl Compliance-Anforderungen als auch forensische Untersuchungen erfüllt, muss für jede KI-Dateninteraktion sechs Elemente erfassen: die KI-Agenten-Identität (welcher Agent die Anfrage gestellt hat), den autorisierenden menschlichen Nutzer (wessen Rechte der Agent nutzte), die abgerufene Datenklassifikation (welche Kategorie und Sensitivität), Zeitstempel und Dauer, die Aktion (lesen, schreiben, ändern, übertragen) und das Ziel, falls Daten das System verlassen haben. Diese Granularität ermöglicht die schnellere Vorfalluntersuchung, die der Teleport-Bericht als zentralen KI-Produktivitätsvorteil nennt – Sie können exakt nachvollziehen, was ein kompromittierter oder fehlverhaltender Agent wann abgerufen hat. Sie liefert zudem die Compliance-Dokumentation, die Aufsichtsbehörden verlangen: Unter DSGVO, HIPAA und Frameworks wie NIST 800-53 gilt, dass der Nachweis, dass KI-Systeme innerhalb autorisierter Grenzen agieren, durch Aufzeichnungen und nicht durch Behauptungen zu führen ist. Unternehmen, die das Kiteworks AI Data Gateway nutzen, generieren diese Trails kontinuierlich und unveränderlich für jede KI-Interaktion mit Unternehmensdaten.
Weitere Ressourcen
- Blogbeitrag Zero Trust Architecture: Never Trust, Always Verify
- Video Microsoft GCC High: Nachteile treiben Verteidigungsauftragnehmer zu intelligenteren Lösungen
- Blogbeitrag Wie Sie klassifizierte Daten schützen, sobald DSPM sie erkennt
- Blogbeitrag Vertrauen in Generative KI aufbauen mit einem Zero Trust-Ansatz
- Video Der definitive Leitfaden zur sicheren Speicherung sensibler Daten für IT-Leiter