Sicherheitsbedenken bremsen das Skalieren agentischer KI: Stanford bestätigt zentrales Hindernis
Das Stanford Institute for Human-Centered Artificial Intelligence hat diesen Monat seinen 2026 AI Index Report veröffentlicht. Die meisten Berichte konzentrieren sich auf das Technologie-Rennen zwischen den USA und China – chinesische Modelle liegen nur noch 2,7 Prozentpunkte hinter den führenden US-Modellen, US-Investitionen in KI erreichen 2025 285,9 Milliarden US-Dollar. Diese Ergebnisse sind wichtig. Doch die wirklich entscheidenden Erkenntnisse finden sich in den Abschnitten, die von der Berichterstattung meist übergangen wurden – insbesondere zu verantwortungsvoller KI, Governance und dem Skalieren agentischer KI.
Wichtige Erkenntnisse
- Sicherheits- und Risikothemen sind das größte Hindernis für das Skalieren agentischer KI. Der Stanford 2026 AI Index zeigt: 62% der Unternehmen nennen Sicherheit und Risiko als Hauptgrund – noch vor technischen Einschränkungen (38%), regulatorischer Unsicherheit (38%) und Lücken bei verantwortungsvoller KI (32%). Wenn es um agentische KI geht, ist Sicherheit der entscheidende Engpass.
- KI-Vorfälle häufen sich in bestimmten Unternehmen, nicht nur in der Gesamtzahl. Der Anteil der Unternehmen mit mindestens einem KI-Vorfall blieb 2024 und 2025 bei 8%. Doch die Häufung änderte sich: Unternehmen mit 3–5 Vorfällen stiegen von 30% auf 50%, während jene mit nur 1–2 Vorfällen von 42% auf 29% fielen. KI-Vorfälle treten also wiederholt in denselben Unternehmen auf – meist bei denjenigen mit besonders schneller Einführung.
- Selbsteingeschätzte Reaktionsfähigkeit auf Vorfälle sinkt. Unternehmen, die ihre Reaktion auf KI-Vorfälle als „exzellent“ einstufen, sanken von 28% auf 18% zwischen 2024 und 2025. Die mit „gut“ bewerteten Antworten fielen von 39% auf 24%. Unternehmen erleben mehr KI-Vorfälle und fühlen sich weniger in der Lage, diese zu bewältigen.
- Risikowahrnehmung entspricht jetzt der operativen Realität. Die Sorge um Cybersecurity stieg von 66% auf 72%, die Sorge um Compliance von 63% auf 72%, und die Sorge um Ungenauigkeit sprang um 14 Punkte von 60% auf 74%. KI-getriebene Risiken für Datensicherheit und Compliance sind nun Mainstream-Themen, keine Spekulation mehr.
- Verantwortungsvolle KI-Policy wird schneller eingeführt, aber Umsetzungsbarrieren bleiben. Unternehmen ohne RAI-Policy sanken von 24% auf 11% im Jahresvergleich. Doch Wissens- und Schulungslücken bleiben das größte Hindernis für die vollständige Umsetzung (59%, zuvor 51%), gefolgt von Ressourcenmangel (41%) und technischen Einschränkungen (38%). Unternehmen wünschen sich vorgefertigte, praxisorientierte Kontrollen – nicht noch mehr Policy-Dokumente.
Diese Erkenntnis sollte die Sichtweise jedes Boards, CISOs und Compliance-Verantwortlichen auf KI-Einführung im Jahr 2026 verändern.
Als Stanford Unternehmen fragte, was sie am Skalieren agentischer KI hindert – also KI-Agenten, die mehrstufige Workflows ausführen, mit Tools interagieren und Daten autonom verarbeiten können – nannten 62% Sicherheits- und Risikothemen als größte Hürde. Technische Einschränkungen lagen bei 38%. Regulatorische Unsicherheit bei 38%. Lücken bei verantwortungsvoller KI und Kontrolle bei 32%. Ressourcenmangel und unklarer geschäftlicher Nutzen folgten weiter hinten.
Beachten Sie die Reihenfolge: Sicherheit steht nicht gleichauf mit anderen Bedenken. Sie steht nicht an zweiter Stelle hinter regulatorischer Unsicherheit. Sie ist der dominierende Engpass – mit 24 Prozentpunkten Abstand zum nächstwichtigen Faktor. Unternehmen scheitern nicht am Skalieren agentischer KI, weil die Technologie unreif oder das Budget zu klein ist. Sie scheitern, weil sie den Datenzugriff, den autonome Agenten benötigen, nicht steuern können.
Die Vorfalldaten erzählen eine präzisere Geschichte als die Schlagzeilen
Viele Berichte zum Stanford-Report stellen die KI-Vorfalldaten als „362 Vorfälle in 2025, gegenüber 233 in 2024″ dar – und zitieren damit die dokumentierten Schäden der AI Incident Database. Diese Darstellung ist korrekt, aber analytisch unvollständig.
Stanfords zugrundeliegende Umfragedaten zeigen genauer, wo KI-Vorfälle tatsächlich auftreten. Der Anteil der Unternehmen mit mindestens einem KI-Vorfall blieb 2024 und 2025 konstant bei 8%. Was sich änderte, war die Häufung: Bei Unternehmen mit Vorfällen stieg der Anteil mit 3–5 Vorfällen von 30% auf 50%. Die mit nur 1–2 Vorfällen fielen von 42% auf 29%.
Dieser Unterschied ist entscheidend. KI-Vorfälle breiten sich nicht auf mehr Unternehmen aus – sie konzentrieren sich auf Unternehmen, die bereits betroffen sind. Die wahrscheinlichste Erklärung ist auch die unbequemste: Unternehmen mit besonders schneller KI-Einführung verursachen die meisten Vorfälle und lernen nicht schnell genug, um Wiederholungen zu vermeiden.
Die Daten zur Vorfallreaktion bestätigen diese Interpretation. Unternehmen, die ihre Reaktion auf KI-Vorfälle als „exzellent“ einstufen, sanken innerhalb eines Jahres von 28% auf 18%. Die mit „gut“ bewerteten Antworten fielen von 39% auf 24%. Gleichzeitig stieg „zufriedenstellend“ von 19% auf 32% und „verbesserungswürdig“ von 13% auf 21%. Unternehmen werden also weniger zuversichtlich, KI-Vorfälle zu bewältigen, obwohl ihre Häufigkeit bei den Betroffenen steigt.
Das Muster ist klar: Wiederkehrende KI-Vorfälle bei schnellen Anwendern, sinkende Reaktionsfähigkeit und eine stabile (nicht sinkende) Vorfallrate in der Gesamtbevölkerung. Das Problem breitet sich nicht aus – es vertieft sich.
Risikowahrnehmung hat endlich die Realität erreicht
Stanfords Daten zeigen einen bedeutsamen Wandel in der Risikowahrnehmung der befragten Unternehmen. Zwischen 2024 und 2025 stieg der Anteil der Befragten, die spezifische KI-Risiken als „relevant“ einstufen, in jeder Kategorie mit Bezug zur Datensicherheit.
Die Sorge um Ungenauigkeit stieg von 60% auf 74% – ein Plus von 14 Punkten. Die Sorge um Cybersecurity stieg von 66% auf 72%. Die Sorge um Compliance stieg von 63% auf 72% – ein Anstieg um 9 Punkte. Die Sorge um den Schutz personenbezogener Daten blieb hoch und wuchs leicht.
Das sind keine Randmeinungen mehr. Rund drei von vier Unternehmen betrachten KI-getriebene Risiken für Datensicherheit, Compliance und Genauigkeit inzwischen als wesentliche Herausforderung. Der 2026 Thales Data Threat Report bestätigt dies aus einer anderen Perspektive – 70% der Befragten nennen den rasanten Wandel im KI-Ökosystem als ihr größtes KI-bezogenes Risiko. Der 2026 DTEX/Ponemon Insider Threat Report ergänzt, dass 92% der Unternehmen sagen, generative KI habe die Art und Weise, wie Mitarbeitende Informationen austauschen, grundlegend verändert – aber nur 13% haben KI in ihre Sicherheitsstrategie integriert.
Bewusstsein ist nicht mehr der begrenzende Faktor. Es fehlt an operativer Fähigkeit.
Warum Responsible-AI-Policy allein die Lücke nicht schließt
Stanford dokumentierte neben der Risikowahrnehmung einen zweiten bemerkenswerten Wandel. Die Einführung formaler Responsible-AI-Policies hat deutlich zugenommen. Unternehmen ohne RAI-Policy sanken von 24% in 2024 auf 11% in 2025 – fast neun von zehn Unternehmen haben nun irgendeine Form von KI-Governance kodifiziert.
Die Wirkungsdaten bestätigen, dass Policies wirken. Unternehmen mit RAI-Policy berichten von weniger KI-Vorfällen (+8 Prozentpunkte gegenüber Unternehmen ohne Policy), besseren Geschäftsergebnissen (+7 Punkte), effizienteren Abläufen (+4 Punkte) und gestiegenem Kundenvertrauen (+4 Punkte). Policies wirken – aber sie schließen die Lücke nicht allein.
Die Barrieren für die vollständige Umsetzung erzählen den Rest der Geschichte. Stanford fand heraus, dass Wissens- und Schulungslücken das größte Hindernis für die Umsetzung verantwortungsvoller KI sind – genannt von 59% der Unternehmen, zuvor 51% in 2024. Technische Einschränkungen folgen mit 38% (zuvor 32%). Ressourcen- und Budgetmangel bei 41%. Regulatorische Unsicherheit bei 38%. Organisatorischer Widerstand und fehlende Unterstützung durch das Management tauchen auf, sind aber weniger dominant.
Was bedeutet dieses Muster? Unternehmen scheitern nicht an Responsible AI, weil ihnen die Überzeugung fehlt. Sie scheitern, weil das Know-how zur Operationalisierung fehlt, die Tools zur Durchsetzung noch unreif sind und die Ressourcen für beides begrenzt. Die klare Konsequenz: Unternehmen brauchen vorgefertigte, praxisorientierte Kontrollen – Policy-Vorlagen für Datenklassifizierung, integrierte Protokollierung, Einwilligungs- und Aufbewahrungsmanagement, KI-Zugriffsrichtlinien – um weniger auf knappe interne Expertise angewiesen zu sein.
Genau diese Lücke schließen der Kiteworks Secure MCP Server und das AI Data Gateway.
Regulatorische Rahmenbedingungen fokussieren sich auf die Datenebene
Stanfords Daten zur regulatorischen Einflussnahme zeigen, welche Rahmenwerke 2025 die Entscheidungen zu Responsible AI prägen. Die EU-Datenschutzgrundverordnung (DSGVO) bleibt das meistgenannte Framework, auch wenn ihr Einfluss von 65% auf 60% sank. Der EU AI Act und die US AI Executive Order gewannen jeweils rund 2 Prozentpunkte, da sie von der Theorie in die Praxis übergehen. ISO/IEC 42001 – der Standard für KI-Managementsysteme – tauchte erstmals mit 36% in der Umfrage auf. Das NIST AI Risk Management Framework erreichte 33%. Die OECD AI Principles sanken von 21% auf 16%. Unternehmen ohne regulatorischen Einfluss auf ihre RAI-Praxis fielen von 17% auf 12%.
Zwei Muster lassen sich daraus ableiten.
Erstens: KI-spezifische Frameworks (EU AI Act, ISO/IEC 42001, NIST AI RMF) werden als Erweiterung bestehender Datenschutz-Frameworks eingeführt, nicht als isolierte Regime. KI-Regulierung wird zunehmend durch die Datenschutz-Brille interpretiert – Rechtmäßigkeit, Fairness, Zweckbindung, Datenminimierung, Aufbewahrungsfristen und Sicherheit der Verarbeitung. Der Kiteworks 2026 Prognosebericht dokumentierte, dass 82% der US-Unternehmen noch keinen Druck durch den EU AI Act spüren, aber Unternehmen, die nicht betroffen sind, bei jeder wichtigen KI-Kontrolle 22–33 Punkte hinterherhinken – ein Zwei-Klassen-Markt entsteht.
Zweitens: Standardbasierte Ansätze gewinnen an operativer Bedeutung. Der Aufstieg von ISO/IEC 42001 und die anhaltende Relevanz des NIST AI RMF zeigen, dass Unternehmen umsetzbare Standards wollen, nicht nur Compliance-Checklisten. Das passt zu den Umsetzungsbarrieren: Unternehmen, die an Wissenslücken und technischen Einschränkungen scheitern, wünschen sich Frameworks, die konkret vorgeben, was zu tun ist – nicht nur, was zu erreichen ist.
Die Cybersecurity-Benchmark-Verschiebung, die fast niemand bemerkte
Der Stanford AI Index untersuchte einen Benchmark, der für Sicherheitsverantwortliche besonders relevant ist. Cybench – ein Benchmark, der KI-Agenten bei Cybersecurity-Aufgaben bewertet – verzeichnete einen Anstieg der ungeleiteten Lösungsrate von 15% in 2024 auf 93% in 2025.
Lesen Sie das noch einmal: Die ungeleiteten Lösungsraten von KI-Agenten bei Cybersecurity-Aufgaben stiegen innerhalb von zwölf Monaten von 15% auf 93%.
Das ist die andere Seite der Responsible-AI-Messlücke. Während fortschrittliche Modelle starke Basissicherheitswerte zeigen (HELM Safety Scores zwischen 0,90 und 0,98 für die meisten Releases 2024–2025), fand Stanford heraus, dass die Leistung der meisten Modelle unter gezielten Jailbreak-Bedingungen im AILuminate v1.0-Test deutlich abfällt. Das Fazit ist eindeutig: Angreifer können zunehmend anspruchsvolle Cybersecurity-Aufgaben mit KI automatisieren, während defensive Modelle, die unter Normalbedingungen sicher erscheinen, durch Jailbreaks zu schädlichen Ergebnissen gebracht werden können.
Das ist entscheidend für die Governance-Architektur von KI. Wenn Sicherheitsfunktionen auf Modellebene von Angreifern mit denselben Jailbreak-Techniken umgangen werden können, reichen Modellebene-Kontrollen nicht aus. Governance muss auf der Datenebene stattfinden – unabhängig vom Modell, Prompt oder Agenten-Framework durchgesetzt.
Wie Kiteworks die von Stanford dokumentierten Erkenntnisse adressiert
Kiteworks adressiert die Stanford-Erkenntnisse auf mehreren Architekturebenen.
Für die 62% Hürde beim Skalieren agentischer KI: Kiteworks bietet Governance auf Datenebene, die Least-Privilege-Zugriff auf Inhaltsebene durchsetzt – nicht nur auf Anwendungsebene. Jeder KI-Agenten-Zugriff auf sensible Daten durchläuft Identitätsprüfung, Attribut-basierte Zugriffskontrolle, Verschlüsselung und manipulationssichere Audit-Protokollierung – unabhängig davon, welche Anweisungen der Agent erhält. Wenn laut Stanford-Daten Unternehmen am Skalieren agentischer KI durch Sicherheitsbedenken gehindert werden, liefert Kiteworks die Kontrollinstanz, die dieses Hindernis beseitigt.
Für die RAI-Umsetzungsbarriere (59% nennen Wissenslücken): Kiteworks liefert vorgefertigte Kontrollen – Compliance-Dashboards für DSGVO, HIPAA, CMMC und weitere Frameworks; zentrale Policy-Durchsetzung über alle sensiblen Datenkanäle hinweg; und integrierte Protokollierung, die Nachweispflichten erfüllt. Unternehmen müssen KI-Governance nicht von Grund auf neu entwickeln.
Für die sinkende Vorfallreaktionsfähigkeit: Kiteworks erzeugt Echtzeit-Audit-Trails ohne Drosselung und ohne Premium-Lizenzbeschränkungen, die direkt an das SIEM des Unternehmens weitergeleitet werden. Bei einem KI-Vorfall haben Reaktionsverantwortliche die Beweise, um den Umfang präzise zu bewerten – statt auf Worst-Case-Benachrichtigungen zurückzugreifen.
Für die Ausrichtung an ISO/IEC 42001 und NIST AI RMF: Kiteworks bietet Revisionssicherheit, Zugriffskontrollen und Chain-of-Custody-Dokumentation, wie beide Frameworks sie fordern, und verbindet KI-spezifische Standards mit bestehenden Datenschutzpflichten (DSGVO, HIPAA, CMMC).
Was Sicherheitsverantwortliche mit den Stanford-Daten tun sollten
Erstens: Behandeln Sie die 62% Hürde beim Skalieren agentischer KI als Bestätigung, jetzt Governance auf Datenebene zu priorisieren. Unternehmen, die auf perfekte KI-spezifische Regulierung warten, werden nicht skalieren können, wenn ihre Wettbewerber es tun. Das Hindernis ist bereits operativ – die First Mover sind diejenigen, die die Governance-Infrastruktur jetzt aufbauen.
Zweitens: Überprüfen Sie das Häufungsmuster in Ihrem eigenen Unternehmen. Wenn Sie 2025 KI-Vorfälle hatten, legen die Stanford-Daten nahe, dass Sie 2026 mit weiteren Vorfällen rechnen müssen – nicht mit weniger. Analysieren Sie die Ursachen. Es gibt selten nur einen Auslöser.
Drittens: Kombinieren Sie RAI-Policy mit Durchsetzungsinfrastruktur. Die 11% der Unternehmen ohne RAI-Policy sind eine schrumpfende Minderheit. Die Frage ist nicht mehr, ob man eine Policy braucht – sondern ob sie durch technische Kontrollen gestützt wird. Policy ohne Durchsetzung ist Dokumentation, keine Governance.
Viertens: Vergleichen Sie Ihre KI-Einführungen mit ISO/IEC 42001 und NIST AI RMF. Diese Standards gewinnen regulatorisch an Bedeutung, und ihre Anforderungen lassen sich direkt in Kontrollen übersetzen, die auch DSGVO, HIPAA und neue US-Bundesstaaten-KI-Gesetze erfüllen. Die Einführung dieser Frameworks positioniert Ihr Unternehmen für die regulatorische Beschleunigung, die Stanford prognostiziert.
Fünftens: Behandeln Sie das Cybench-Ergebnis als Weckruf für Ihre SOC-Fähigkeit. Wenn die gegnerische KI-Fähigkeit bei Cybersecurity-Aufgaben innerhalb eines Jahres von 15% auf 93% steigt, muss die defensive KI-Fähigkeit Schritt halten. Noch wichtiger: Die Datenebene – auf der Kiteworks arbeitet – muss Zugriffskontrollen durchsetzen, die unabhängig von der Sicherheit oder Komplexität des Modells funktionieren.
Der Stanford 2026 AI Index ist eine Diagnose, keine Prognose. Unternehmen führen KI schneller ein, als sie sie steuern können. Die Vorfallhäufigkeit konzentriert sich auf die aggressivsten Anwender. Die Reaktionsfähigkeit sinkt, während die Risikowahrnehmung steigt. Sicherheit und Risiko sind jetzt der dominierende Engpass beim Skalieren der KI, die Vorstände fordern. Und die Responsible-AI-Messlücke bedeutet: Modellebene-Kontrollen reichen allein nicht aus.
Die Unternehmen, die 2026 auf der Datenebene steuern, werden diejenigen sein, deren KI-Einführungen nicht zur Vorfallstatistik 2027 beitragen – und deren agentische KI-Programme tatsächlich skalieren.
Häufig gestellte Fragen
Die Stanford-Daten sprechen für Governance auf Datenebene statt für Sicherheit auf Modellebene. Zu den konkreten Kontrollen gehören: Identitätsprüfung bei jeder KI-Agenten-Interaktion; Attribut-basierte Zugriffskontrolle auf Inhaltsebene; Zweckbindung, die Agenten den Zugriff auf Daten außerhalb ihres definierten Rahmens verwehrt; manipulationssichere Audit-Trails für jeden Datenzugriff; und Kill-Switches, mit denen fehlverhaltende Agenten in Echtzeit gestoppt werden können. Der Kiteworks 2026 Prognosebericht zeigt, dass 63% der Unternehmen keine Zweckbindung für KI-Agenten durchsetzen und 60% keinen fehlverhaltenden Agenten stoppen können – genau diese Lücken blockieren laut Stanford-Daten das Skalieren.
Stanfords Daten zeigen: Der Anteil der Unternehmen mit mindestens einem KI-Vorfall blieb 2024 und 2025 bei 8%. Was sich änderte, ist die Häufung: Unternehmen mit 3–5 Vorfällen stiegen von 30% auf 50%, während jene mit nur 1–2 Vorfällen von 42% auf 29% fielen. Das bedeutet, KI-Vorfälle konzentrieren sich auf Unternehmen, die bereits betroffen sind – meist die mit besonders schneller Einführung. Für Unternehmen mit einem KI-Vorfall ist die Wahrscheinlichkeit weiterer Vorfälle im Folgejahr deutlich höher als für Unternehmen ohne Vorfall. Eine Ursachenanalyse und Überprüfung der Architektur sind ratsam.
Stanford fand heraus: Der Anteil der Unternehmen ohne RAI-Policy sank im Jahresvergleich von 24% auf 11%, aber das größte Umsetzungsproblem sind Wissens- und Schulungslücken mit 59%. Das Muster zeigt: Unternehmen haben Überzeugung und Richtung, aber es fehlt an operativen Tools und Expertise. Die Stanford-Daten belegen die Nachfrage nach vorgefertigten Kontrollen – Policy-Vorlagen, integrierte Protokollierung, Einwilligungs- und Aufbewahrungsmanagement, KI-Zugriffsrichtlinien – um die Abhängigkeit von knapper interner Expertise zu reduzieren. Kiteworks bietet diese Architektur mit Compliance-Dashboards, zentraler Policy-Durchsetzung und einheitlichen Audit-Trails.
Stanford fand heraus: Die DSGVO bleibt mit 60% (zuvor 65%) der meistgenannte regulatorische Einfluss, während ISO/IEC 42001 erstmals mit 36% und NIST AI RMF mit 33% genannt werden. Das Muster zeigt: KI-spezifische Standards werden als Erweiterung bestehender Datenschutz-Frameworks eingeführt, nicht als separate Regime. Compliance-Teams sollten KI-Einführungen gegen alle vier Frameworks gleichzeitig abgleichen – die Kontrollen, die eines erfüllt, erfüllen meist alle, und Multi-Framework-Ausrichtung positioniert das Unternehmen für die regulatorische Beschleunigung, die Stanford prognostiziert.
Cybench bewertet die Leistung von KI-Agenten bei Cybersecurity-Aufgaben. Der Sprung von 15% auf 93% bei den ungeleiteten Lösungsraten bedeutet, dass Angreifer zunehmend anspruchsvolle Cybersecurity-Operationen mit KI automatisieren können. Zusammen mit Stanfords AILuminate-Ergebnis, dass die Sicherheitsleistung der meisten fortschrittlichen Modelle unter Jailbreak-Bedingungen deutlich abfällt, ist die architektonische Konsequenz klar: Sicherheit auf Modellebene reicht nicht als Kontrollmechanismus. Governance muss auf der Datenebene erfolgen – unabhängig vom Modell, Prompt oder Agenten-Framework. Kiteworks setzt dies mit dem Secure MCP Server und dem AI Data Gateway um und stellt sicher, dass KI-Agenten keinen Zugriff auf sensible Daten erhalten, selbst wenn die Sicherheitsfunktionen des Modells umgangen wurden.