Unternehmen steuern blindlings in die KI-Sicherheitskrise (und die Zahlen belegen es)
Eine Analyse von nahezu einer Billion Transaktionen zeigt eine ernüchternde Wahrheit: Unternehmen setzen KI schneller ein, als sie diese absichern können – und Angreifer nutzen diese Lücke bereits aus.
Das große KI-Sicherheitsdefizit
Im Bereich der Unternehmens-IT geschieht derzeit etwas Ungewöhnliches. Unternehmen führen KI-Tools im Eiltempo ein, integrieren maschinelles Lernen in Arbeitsabläufe und automatisieren alles – von Kundenservice bis zur Code-Entwicklung. Doch als Sicherheitsexperten testeten, wie widerstandsfähig diese Systeme tatsächlich sind, entdeckten sie etwas Alarmierendes: Jedes einzelne untersuchte Enterprise-KI-System wies kritische Schwachstellen auf.
Das ist kein Tippfehler. 100 Prozent Ausfallquote.
Zscalers ThreatLabz 2026 AI Security Report analysierte fast eine Billion KI- und Machine-Learning-Transaktionen in rund 9.000 Unternehmen im Jahr 2025. Das Ergebnis: Die Branche rast mit Vollgas auf einen Abgrund zu.
Die mittlere Zeit bis zum ersten kritischen Ausfall im Red-Team-Test lag bei nur 16 Minuten, 90 % der Systeme wurden in weniger als 90 Minuten kompromittiert. Im Extremfall brachen die Abwehrmechanismen in nur einer Sekunde zusammen.
Denken Sie über diesen Zeitrahmen nach. Sicherheitsteams messen ihre Reaktionszeiten üblicherweise in Stunden oder Tagen. Angreifer können Kompromittierungen inzwischen in Minuten messen.
Fünf wichtige Erkenntnisse
1. Jedes getestete Enterprise-KI-System hatte kritische Schwachstellen
Die Red-Team-Tests von Zscaler zeigten bei 100 % der analysierten Enterprise-KI-Systeme kritische Schwachstellen, mit einer mittleren Zeit bis zum ersten Ausfall von nur 16 Minuten. Im Extremfall wurden Sicherheitsmechanismen in einer Sekunde umgangen – ein Beleg dafür, dass KI-Systeme unter realen Angriffen praktisch sofort versagen.
2. 18.000 Terabyte Unternehmensdaten flossen in KI-Plattformen
Die Übertragung von Unternehmensdaten an KI- und ML-Anwendungen stieg im Jahresvergleich um 93 % auf 18.033 Terabyte. Tools wie Grammarly und ChatGPT wurden zu riesigen Wissensspeichern für Unternehmensinformationen. Allein bei ChatGPT gab es 410 Millionen Verstöße gegen Data Loss Prevention-Richtlinien, darunter Versuche, Sozialversicherungsnummern, Quellcode und medizinische Daten zu teilen.
3. Shadow AI umgeht Unternehmenssicherheitskontrollen
Rund 77 % der Mitarbeitenden fügen Daten in generative KI-Tools ein, 82 % davon über persönliche Konten – komplett außerhalb der Unternehmensaufsicht. Klassische Data Loss Prevention-Systeme sind nicht für Copy-Paste-Workflows ausgelegt, sodass Sicherheitsteams den Großteil sensibler Datenübertragungen nicht erkennen.
4. Vervierfachung der KI-Anwendungen bei gleichzeitigem Kontrollverlust
Die Zahl der Anwendungen, die KI/ML-Transaktionen auslösen, stieg auf über 3.400 – eine Vervierfachung im Jahresvergleich. Viele Unternehmen haben keinen Überblick mehr über aktive KI-Modelle oder integrierte Funktionen. Finanz- und Versicherungsbranche führen mit 23 % des gesamten KI-Traffics, während Technologie und Bildung ein Transaktionswachstum von über 200 % verzeichneten.
5. Agentic AI ermöglicht Cyberangriffe in Maschinen-Geschwindigkeit
Autonome KI-Agenten entwickeln sich zum neuen Insider-Risiko und zum Multiplikator für Angreifer. Sie können Aufklärung, Ausnutzung und laterale Bewegung mit einer Geschwindigkeit durchführen, die traditionelle Sicherheitstools nicht erreichen. Verteidiger müssen davon ausgehen, dass Angriffe sich in Maschinen-Geschwindigkeit skalieren und anpassen – nicht in menschlicher Geschwindigkeit. Sicherheitsteams, die in Stunden reagieren, stehen Bedrohungen gegenüber, die Systeme in Minuten kompromittieren.
Sie vertrauen darauf, dass Ihr Unternehmen sicher ist. Aber können Sie es auch nachweisen?
Jetzt lesen
18.000 Terabyte Unternehmenswissen, die nach außen fließen
Das Ausmaß der Datenströme in KI-Systeme ist enorm. Unternehmensdatenübertragungen an KI- und Machine-Learning-Anwendungen stiegen 2025 auf 18.033 Terabyte – ein Plus von 93 % zum Vorjahr. Zur Einordnung: Das entspricht etwa 3,6 Milliarden digitalen Fotos voller Unternehmensinformationen, die externen KI-Plattformen zugeführt werden.
Wohin gehen all diese Daten? Grammarly absorbierte 3.615 Terabyte an Unternehmensinhalten, ChatGPT erhielt 2.021 Terabyte. Diese Plattformen sind zu riesigen Wissensspeichern geworden – von strategischen Dokumenten über Quellcode bis zu Kundendaten.
Das Problem ist nicht die Nutzung von KI-Tools durch Mitarbeitende. Das Problem ist, wie sie diese nutzen – und was sie teilen, ohne die Konsequenzen zu bedenken.
Das Risiko zeigt sich in 410 Millionen Data Loss Prevention-Verstößen allein bei ChatGPT, darunter Versuche, Sozialversicherungsnummern, Quellcode und medizinische Daten zu teilen.
Vierhundertzehn Millionen Verstöße. Von einer einzigen Anwendung.
Das Shadow-AI-Problem, über das niemand sprechen will
Rund 77 % der Mitarbeitenden fügen Daten in generative KI-Tools ein, 82 % davon über persönliche Konten, die die Unternehmensaufsicht komplett umgehen. Das bedeutet: Die Mehrheit sensibler Datenübertragungen findet außerhalb jeglicher Sicherheitskontrollen statt.
Die Ergebnisse des Berichts stimmen mit anderen Branchenstudien überein: 68 % der Mitarbeitenden nutzen kostenlose KI-Tools wie ChatGPT über persönliche Konten, 57 % geben dabei sensible Daten ein.
Klassische Data Loss Prevention-Systeme wurden entwickelt, um Datei-Uploads oder -Downloads zu erkennen. Sie sind nicht für das Copy-Paste-Zeitalter gemacht, in dem Mitarbeitende vertrauliche Textpassagen einfach in einen browserbasierten Chatbot unter ihrem privaten Gmail-Konto einfügen.
Das aktuell größte Risiko generativer KI ist der massive Anstieg der Datenexponierung – die Rate der Richtlinienverstöße im Zusammenhang mit GenAI-Anwendungen hat sich im letzten Jahr verdoppelt.
Das ist kein theoretisches Problem. Es ist messbar, beschleunigt sich und betrifft jede Branche.
Eingebettete KI: Die unsichtbare Bedrohung
Jenseits offensichtlicher KI-Anwendungen wie ChatGPT und Coding-Assistenten gibt es ein noch heimtückischeres Problem: KI-Funktionen werden direkt in alltägliche Unternehmenssoftware integriert – oft standardmäßig aktiviert und ohne explizites Nutzerbewusstsein.
Diese eingebetteten KI-Funktionen wirken laut Sicherheitsexperten als „stiller Risikomultiplikator“. Sie übernehmen zu weit gefasste Berechtigungen ihrer Host-Anwendungen, können Geschäftsinhalte aus verbundenen Systemen aufnehmen und schaffen neue Vertrauensgrenzen, die schwer zu prüfen oder überhaupt zu erkennen sind.
Unter allen analysierten Plattformen war Atlassian eine der Hauptquellen für eingebettete KI-Aktivitäten – ein Zeichen für die weite Verbreitung KI-gestützter Funktionen in Kernplattformen wie Jira und Confluence.
Wenn Ihr Projektmanagement-Tool still und leise Tickets per KI zusammenfasst oder Ihre Dokumentationsplattform automatisch Inhaltsempfehlungen generiert, können sensible Informationen über Wege in KI-Systeme gelangen, die Ihr Sicherheitsteam nie bedacht hat.
Das Ergebnis? Viele Unternehmen haben immer noch keine Übersicht über aktive KI-Modelle und eingebettete Funktionen – und wissen nicht, wo sensible Daten tatsächlich exponiert sind.
Die 3.400-Anwendungen-Explosion
Die Zahl der Anwendungen, die KI- und ML-Transaktionen auslösen, hat sich im Jahresvergleich auf über 3.400 vervierfacht – mit steigender Komplexität und schwindender zentraler Transparenz.
Durch diese rasante Verbreitung fehlt vielen Unternehmen eine klare Übersicht, welche KI-Modelle mit ihren Daten interagieren und welche Lieferketten dahinterstehen. Sicherheitsteams kämpfen gegen ein exponentiell wachsendes Problem.
Enterprise-KI-Aktivitäten stiegen im Jahresvergleich um 91 % – über mehr als 3.400 Anwendungen hinweg. Finanz- und Versicherungsbranche sind mit 23 % des gesamten KI/ML-Traffics die führenden Sektoren, während Technologie und Bildung ein explosionsartiges Wachstum von 202 % bzw. 184 % verzeichneten.
Ingenieurabteilungen machten 48,9 % der gesamten KI-Nutzung aus, gefolgt von IT mit 31,8 % und Marketing mit 6,9 %. Die intensivsten Nutzer sind genau die Bereiche mit Zugriff auf das sensibelste geistige Eigentum und Kundendaten.
Wenn Maschinen in Maschinen-Geschwindigkeit angreifen
Hier wird es von beunruhigend zu wirklich alarmierend.
Der Cyber-Ausblick 2026 von Moody’s warnt vor zunehmenden KI-gestützten Cyberangriffen, darunter adaptive Malware und autonome Bedrohungen, da Unternehmen KI immer häufiger ohne ausreichende Schutzmaßnahmen einsetzen.
Das Aufkommen von „agentic AI“ – autonomen Systemen, die komplexe Aufgaben ohne menschliche Kontrolle ausführen – verändert die Bedrohungslage grundlegend. Laut Palo Alto Networks sind KI-Agenten 2026 die neue Insider-Bedrohung, da agentic AI sowohl ausgenutzt werden kann als auch ein attraktives Ziel für Angreifer darstellt.
Wir sind über passive Chatbots hinaus – im Zeitalter autonomer Agenten. Das verändert die Bedrohungslage grundlegend: KI wird vom Content-Generator zum aktiven Teil der Unternehmensinfrastruktur, der Code ausführen und Daten verändern kann.
Traditionelle Sicherheitstools wurden entwickelt, um Anomalien im menschlichen Verhalten zu erkennen. Ein KI-Agent, der 10.000-mal fehlerfrei Code ausführt, erscheint diesen Systemen normal – könnte aber die Befehle eines Angreifers ausführen.
Auf dem Höhepunkt eines dokumentierten KI-gesteuerten Angriffs stellte die KI Tausende Anfragen, oft mehrere pro Sekunde – eine Geschwindigkeit, die menschliche Hacker niemals erreichen könnten.
Bedrohungsakteure nutzen Modelle, um überzeugende Köder in jeder Sprache zu erstellen, Payloads für jedes Ziel zu verändern und gestohlene Datensätze in einem Ausmaß auszuwerten, das manuell unmöglich wäre.
Die Konsequenz für Verteidiger ist klar: Sie können nicht mehr davon ausgehen, dass Angriffe in menschlicher Geschwindigkeit ablaufen. Sicherheitsteams, die in Stunden reagieren, verteidigen sich gegen Bedrohungen, die Systeme in Minuten kompromittieren.
Die 39-%-Lösung (die keine wirkliche Lösung ist)
Unternehmen wissen, dass Handlungsbedarf besteht. Die Zscaler-Studie zeigt: Unternehmen blockierten rund 39 % der KI/ML-Transaktionen wegen Bedenken hinsichtlich Datenexponierung, Datenschutz und Compliance.
Einerseits zeigt das, dass Sicherheitsteams aktiv werden. Andererseits verdeutlicht es das Ausmaß des Problems: Wenn vier von zehn KI-Transaktionen als potenzielles Risiko eingestuft werden, ist grundsätzlich etwas falsch im Umgang mit KI-Einführung.
Gerade die am häufigsten genutzten Tools – Grammarly, ChatGPT, Copilot, Coding-Assistenten – werden am stärksten blockiert und sind am tiefsten in sensible Dateninteraktionen eingebunden. Diese Anwendungen sind fester Bestandteil des Arbeitsalltags und dadurch gleichzeitig unverzichtbar und riskant.
Das regulatorische Erwachen
OpenAI wurde von der italienischen Datenschutzbehörde mit 15 Millionen Euro Bußgeld belegt, weil Modelle mit personenbezogenen Daten ohne klare Rechtsgrundlage trainiert und keine ausreichende Altersverifikation implementiert wurden. Die erste große Durchsetzungswelle der EU AI Act verschärft sich 2026, da der umfassende Compliance-Rahmen für Hochrisiko-Systeme vollumfänglich gilt.
Das ist längst kein rein technisches Problem mehr, sondern ein regulatorisches. Unternehmen, die KI-Systeme ohne angemessene Governance einführen, riskieren Bußgelder von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes gemäß EU AI Act – zusätzlich zu bestehenden DSGVO-Strafen.
Die im Zscaler-Bericht dokumentierten DLP-Verstöße – Versuche, regulierte Gesundheitsdaten, Finanzdaten und personenbezogene Informationen über KI-Plattformen zu teilen – sind genau die Aktivitäten, die Compliance-Prüfungen auslösen.
Was tatsächlich funktioniert
Die Sicherheitsbranche setzt bei dieser Herausforderung auf mehrere zentrale Prinzipien.
Erstens: Transparenz. Sie können nur schützen, was Sie auch sehen. Unternehmen brauchen vollständige Inventare aller KI-Anwendungen, eingebetteten Funktionen und Modelle, die mit ihren Daten interagieren – einschließlich der Shadow-AI-Tools, die Mitarbeitende über persönliche Konten nutzen.
Zweitens: KI-Traffic als kritische Sicherheitsdomäne behandeln. Die meisten Unternehmen haben keinen vollständigen Überblick über die eingesetzten KI-Anwendungen und -Dienste, einschließlich generativer KI-Tools, Entwicklungsumgebungen, eingebetteter KI in SaaS, Modelle, Agenten und zugrundeliegender Infrastruktur. Klassische Perimeter-Sicherheit greift nicht, wenn Daten über legitime Kanäle nach außen fließen.
Drittens: kontinuierliches Testen. Die in Red-Team-Übungen dokumentierten Kompromittierungszeiten von 16 Minuten zeigen, dass KI-Systeme unter Angriffen schnell versagen. Es reicht nicht, einmal einen Penetrationstest durchzuführen – es braucht laufende Überprüfung.
Viertens: Berechtigungen sauber halten. KI-Tools und Agenten sollten nach dem Least-Privilege-Prinzip arbeiten – wie menschliche Nutzer. Ein KI-Assistent für Terminplanung benötigt keinen Zugriff auf Ihre Kundendatenbank.
Fünftens: Menschliche Kontrollpunkte bei kritischen Entscheidungen. Ein Agent sollte niemals Gelder überweisen, Daten löschen oder Zugriffsrechte ändern dürfen, ohne explizite menschliche Freigabe.
Die unbequeme Wahrheit
KI ist vom Produktivitätswerkzeug zum Hauptvektor für autonome, maschinenschnelle Angriffe geworden.
Das ist keine Marketingfloskel. Das zeigen fast eine Billion Transaktionen über den aktuellen Stand der KI-Sicherheit.
Unternehmen, die KI-Sicherheit als nachrangig behandeln – als etwas, das man später nachholt – riskieren Vorfälle, die sich schneller abspielen, als ihre Sicherheitsteams reagieren können.
Die Unternehmen, die es schaffen, KI in großem Maßstab zu steuern, ohne sie komplett zu blockieren, sichern sich einen Wettbewerbsvorteil. Die anderen müssen Regulierungsbehörden, Kunden und Aktionären erklären, wie 18.000 Terabyte Unternehmensdaten an Orte gelangt sind, an die sie nie sollten.
Wie Jay Chaudhry, CEO und Gründer von Zscaler, feststellt: „KI verändert die Geschäftswelt, aber herkömmliche Sicherheitsansätze wurden nicht entwickelt, um KI abzusichern. Unternehmensleiter suchen nach einer umfassenden Lösung – nicht nach weiteren Insellösungen.“
Das Zeitfenster, um das Problem in den Griff zu bekommen, schließt sich. Angreifer können heute den Großteil eines Angriffs automatisieren – fast ohne menschliches Fachwissen. Unternehmen, die keine automatisierten, KI-gestützten Abwehrmechanismen einsetzen, werden von Bedrohungen überholt, die sich schneller weiterentwickeln, als jedes traditionelle Sicherheitsmodell mithalten kann.
Die Wahl ist nicht: KI einführen oder sicher bleiben. Sondern: KI mit Governance einführen – oder blind in eine bereits eingetretene Krise steuern.
Erfahren Sie, wie Kiteworks Sie unterstützen kann – vereinbaren Sie noch heute eine individuelle Demo.
Häufig gestellte Fragen
Der ThreatLabz 2026 AI Security Report ist eine jährliche Cybersecurity-Analyse von Zscaler, veröffentlicht am 27. Januar 2026. Er untersucht Nutzungsmuster und Sicherheitslücken bei Enterprise-KI. Der Bericht analysierte 989,3 Milliarden KI- und Machine-Learning-Transaktionen in rund 9.000 Unternehmen, die zwischen Januar und Dezember 2025 die Zscaler Zero Trust Exchange Plattform nutzten.
Laut den Red-Team-Tests von Zscaler lag die mittlere Zeit bis zum ersten kritischen Ausfall bei nur 16 Minuten, 90 % der Systeme wurden in weniger als 90 Minuten kompromittiert. Im Extremfall wurden Sicherheitsmechanismen in einer Sekunde umgangen – ein Beleg dafür, wie schnell KI-Systeme unter Angriffen versagen.
Die Übertragung von Unternehmensdaten an KI- und ML-Anwendungen erreichte 2025 insgesamt 18.033 Terabyte – ein Anstieg von 93 % zum Vorjahr. Grammarly erhielt 3.615 Terabyte an Unternehmensinhalten, ChatGPT absorbierte 2.021 Terabyte und zählt damit zu den größten Wissensspeichern für Unternehmensinformationen.
Shadow AI bezeichnet die unautorisierte Nutzung generativer KI-Tools über persönliche Konten, die Unternehmenssicherheitskontrollen umgehen. Studien zeigen: 77 % der Mitarbeitenden fügen Daten in generative KI-Tools ein, 82 % davon über nicht verwaltete persönliche Konten. Das schafft eine massive Blindstelle für Data Loss Prevention-Systeme und setzt sensible Unternehmensdaten ohne Kontrolle dem Risiko aus.
Finanz- und Versicherungsbranche sind laut Bericht mit 23 % des gesamten KI/ML-Traffics die KI-intensivsten Sektoren. Technologie und Bildung verzeichneten mit 202 % bzw. 184 % das schnellste Wachstum. Ingenieurabteilungen machen fast die Hälfte der gesamten KI-Nutzung aus (48,9 %), gefolgt von IT (31,8 %).
Agentic AI bezeichnet autonome KI-Systeme, die komplexe Aufgaben ohne menschliche Kontrolle ausführen können – darunter Aufklärung, Ausnutzung und laterale Bewegung im Netzwerk. Sicherheitsexperten warnen: Agentic AI entwickelt sich zum Hauptangriffsvektor, weil Cyberangriffe so in Maschinen-Geschwindigkeit skalieren und sich anpassen – schneller, als traditionelle Sicherheitstools Anomalien im menschlichen Verhalten erkennen können.
Weitere Ressourcen
- Blogbeitrag Zero Trust Architecture: Never Trust, Always Verify
- Video Microsoft GCC High: Nachteile, die Verteidigungsunternehmen zu intelligenteren Lösungen bewegen
- Blogbeitrag Wie Sie klassifizierte Daten schützen, nachdem DSPM sie erkannt hat
- Blogbeitrag Vertrauen in generative KI aufbauen mit einem Zero Trust-Ansatz
- Video Der ultimative Leitfaden für sichere Speicherung sensibler Daten für IT-Leiter