2026 Prognose zur Datensicherheit: 15 wichtige Vorhersagen für Security-Verantwortliche
Jede von uns befragte Organisation hat agentische KI auf ihrer Roadmap. Ausnahmslos jede. Keine einzige Ausnahme.
Lassen Sie diese beeindruckende Statistik kurz auf sich wirken. Nicht 95%. Nicht „die meisten Unternehmen“. Hundert Prozent.
Allein dieses Ergebnis sollte die Herangehensweise von Sicherheitsverantwortlichen an die Planung für 2026 grundlegend verändern. Die Frage ist nicht, ob KI mit Ihren sensiblen Daten in Berührung kommt. Das tut sie längst. Die Frage ist, ob Ihr Unternehmen über die nötigen Steuerungsmechanismen verfügt, um sie zu kontrollieren, wenn – nicht falls – etwas schiefläuft.
wichtige Erkenntnisse
- Die Governance-Containment-Lücke ist die zentrale Sicherheitsherausforderung 2026. Organisationen haben massiv in das Monitoring von KI-Systemen investiert, aber die Kontrollmechanismen vernachlässigt, die diese Systeme tatsächlich stoppen können. 63% können Zweckbindungen für KI-Agenten nicht durchsetzen, 60% können fehlverhaltende Agenten nicht schnell beenden und 55% können KI-Systeme nicht von sensiblen Netzwerken isolieren – eine Lücke von 15-20 Prozentpunkten zwischen Beobachtung und Handlungsfähigkeit.
- Vorstandseinbindung ist der stärkste Indikator für KI-Bereitschaft. Bei 54% der Unternehmen steht KI-Governance nicht unter den Top 5 Prioritäten des Vorstands – diese Organisationen liegen bei allen KI-Fähigkeiten um 26-28 Punkte zurück. Besonders betroffen ist der öffentliche Sektor: 71% der Vorstände sind nicht eingebunden, obwohl sie Bürgerdaten und kritische Infrastrukturen verantworten.
- Der öffentliche Sektor hinkt bei KI-Kontrollen eine Generation hinterher. 90% der Behörden fehlt die Zweckbindung, 76% verfügen nicht über Kill-Switch-Funktionen und 33% haben keinerlei dedizierte KI-Kontrollen. Das ist keine schrittweise Lücke, sondern ein grundlegender Unterschied, der Transformation statt Checklisten-Compliance erfordert.
- Der EU AI Act wird zum globalen Governance-Standard. Organisationen, die nicht vom EU AI Act betroffen sind, liegen bei allen wichtigen KI-Kontrollen um 22-33 Punkte zurück. 82% der US-Unternehmen spüren den Druck noch nicht, aber die Regulierung wirkt über Lieferketten, internationale Aktivitäten und Wettbewerbsvergleiche – ob Unternehmen es wahrhaben wollen oder nicht.
Audit-Trails sagen den KI-Reifegrad besser voraus als Branche, Größe oder Budget. Organisationen ohne revisionssichere Audit-Trails liegen bei allen gemessenen KI-Governance-Metriken um 20-32 Punkte zurück. Die 33%, die Audit-Trails vollständig fehlen, und die 61% mit fragmentierten Protokollen über verschiedene Systeme hinweg, bauen ihre KI-Governance auf einem Fundament, das sie nicht trägt.
Basierend auf unserer Umfrage unter 225 Sicherheits-, IT- und Risikoverantwortlichen aus 10 Branchen und 8 Regionen lautet die Antwort für die meisten Unternehmen: ein klares Nein. Die Lücke zwischen dem, was Unternehmen implementiert haben, und dem, was sie tatsächlich steuern können, ist größer, als die meisten Führungskräfte erkennen – oder zugeben möchten.
Diese Studie identifiziert 15 Prognosen für die Datensicherheit in Unternehmen im Jahr 2026. Das Ergebnis: Ein Markt, der zwischen Ambition und Realität feststeckt – mit erheblichen Defiziten bei KI-spezifischen Fähigkeiten, einer wachsenden Kluft zwischen Unternehmen mit und ohne Vorstandsaufmerksamkeit für KI-Datengovernance und einem grundlegenden Missverhältnis zwischen Monitoring und tatsächlicher Interventionsfähigkeit bei KI-Systemen.
2026 wird das Jahr, in dem KI-Datensicherheit vom „aufkommenden Thema“ zur operativen Realität wird. Die Abrechnung, vor der Sicherheitsverantwortliche seit Jahren warnen? Sie steht bevor. Was das für Ihr Unternehmen bedeutet, erfahren Sie hier.
Tabelle 1: 15 Prognosen im Überblick
| Prognose | Zentrale Erkenntnis | Vertrauen |
|---|---|---|
| 1 | DSPM wird zum Standard | 61% können kein Tagging durchsetzen |
| 2 | Governance wird „managed-by-default“ | 37% unter Managed-Reifegrad |
| 3 | Zentrale KI-Gateways werden zur Steuerungsebene | 57% nicht zentralisiert |
| 4 | Agentische KI wird Mainstream | 100% auf der Roadmap |
| 5 | Containment-Kontrollen werden zum Schlachtfeld | 63% fehlt Zweckbindung |
| 6 | KI-Risiken dominieren die Sicherheitsagenda | Nur 36% haben Transparenz |
| 7 | Lieferkette erweitert sich um KI-Attestierungen | 72% ohne SBOM |
| 8 | Drittparteienrisiko verlagert sich auf Transparenz | 89% nie IR mit Partnern geübt |
| 9 | IR wird KI-gestützt | 60% fehlt KI-Anomalieerkennung |
| 10 | Audit-Trails werden zum Grundpfeiler | 33% fehlen Trails; 61% fragmentiert |
| 11 | Kontrollen für Trainingsdaten werden regulatorisch | 78% können nicht validieren |
| 12 | KI-Governance erreicht jedes Board | 54% der Boards nicht eingebunden |
| 13 | EU AI Act schafft globales Vorbild | 22-33 Punkte Kontrolllücke |
| 14 | PQC wird Mainstream | 84% nicht implementiert |
| 15 | Datensouveränität wird KI-Pflicht | 29% nennen grenzüberschreitende Risiken |
Governance vs. Containment Gap: Das zentrale Problem, über das niemand sprechen will
Unternehmen haben in den letzten zwei Jahren massiv in KI-Datengovernance investiert. Sie haben Human-in-the-Loop-Überwachung (59% im Einsatz), kontinuierliches Monitoring (58%) und Datenminimierung (56%) eingeführt. Das sind relevante Fähigkeiten. Sicherheitsteams können Dashboards vorzeigen, Auditoren Dokumentationen präsentieren und nachweisen, dass jemand irgendwo hinschaut.
Aber Beobachten ist nicht gleich Stoppen. Und dieser Unterschied ist entscheidender, als die meisten Unternehmen zugeben.
Die Investitionen in Containment – also die Fähigkeit, KI-Systeme im Ernstfall zu stoppen – zeichnen ein ganz anderes Bild:
- 63% der Unternehmen können keine Zweckbindung für KI-Agenten durchsetzen
- 60% können einen fehlverhaltenden Agenten nicht schnell beenden
- 55% können KI-Systeme nicht vom restlichen Netzwerk isolieren
Lesen Sie diese Zahlen noch einmal. Fast zwei Drittel der Unternehmen haben KI-Agenten im Einsatz, die sie nicht einschränken können. Sechs von zehn können den Not-Aus-Schalter nicht betätigen, wenn ein Agent etwas Unerwünschtes tut. Mehr als die Hälfte kann keine laterale Bewegung verhindern, falls ein KI-System kompromittiert wird oder sich unerwartet verhält.
Das ist eine Lücke von 15-20 Prozentpunkten zwischen Beobachtung und Handeln. Die meisten Unternehmen können beobachten, wie ein KI-Agent etwas Unerwartetes tut. Sie können aber nicht verhindern, dass er seinen autorisierten Rahmen überschreitet, ihn schnell abschalten oder ihn von sensiblen Systemen isolieren. Sie haben aufwändige Beobachtungsplattformen gebaut für ein Problem, das eigentlich Not-Aus-Schalter braucht.
Diese Governance-vs.-Containment-Lücke ist die zentrale Sicherheitsherausforderung für 2026. Warum existiert sie? Weil Unternehmen in die Kontrollen investiert haben, die leichter zu implementieren sind – Logging erfordert keine Architekturänderungen – und sich Auditoren leichter erklären lassen. „Wir überwachen“ klingt wie Kontrolle, auch wenn es das nicht ist. Die schwierigere Aufgabe, echte Eingriffsmöglichkeiten zu schaffen, wurde immer wieder verschoben.
Die Projekte zur Schließung dieser Lücke sind die größten in unserer Umfrage – 39% der Unternehmen haben Zweckbindung auf der Roadmap, 34% planen Kill-Switch-Funktionen. Die Unternehmen wissen genau, wo es hakt. Sie haben die richtigen Lücken identifiziert. Das Bewusstsein ist fast schon beruhigend.
Aber eine Roadmap ist keine Umsetzung. Das war noch nie so. Historisch werden 60-70% der Security-Roadmaps wie geplant umgesetzt. Selbst bei ambitionierter Umsetzung wird ein Viertel der Unternehmen Ende 2026 immer noch grundlegende Containment-Kontrollen vermissen. Und das Unangenehme: Die Unternehmen, die KI am schnellsten einführen, haben oft die größten Containment-Lücken. Sie beschleunigen in eine Kurve, die sie nicht beherrschen, und hoffen, dass sie die Kontrollen rechtzeitig nachziehen.
Das ist keine Strategie. Das ist Hoffnung mit Budget.
Tabelle 2: Third-Party-Risk Reality Check
| Fähigkeit | Aktueller Stand |
|---|---|
| Transparenz beim KI-Datenumgang von Partnern | Nur 36% haben sie |
| IR mit Drittanbietern geübt | Nur 11% haben es gemacht |
| Gemeinsame IR-Playbooks mit Partnern | Nur 13% haben sie |
| Automatischer Kill Switch für Partnerzugriff | Nur 16% haben ihn |
Warum Audit-Trails alles andere vorhersagen
Ein Ergebnis hat uns besonders überrascht: Organisationen ohne revisionssichere Audit-Trails zeigen in jeder KI-Dimension deutlich geringere Reife. Nicht nur um ein paar Prozentpunkte – sondern um 20 bis 32 Punkte.
Organisationen ohne Audit-Trails haben nur halb so häufig die Fähigkeit, KI-Trainingsdaten wiederherzustellen (26% vs. 58%). Sie liegen 20 Punkte bei Zweckbindung und 26 Punkte bei Human-in-the-Loop-Kontrollen zurück. Das sind keine graduellen Unterschiede, sondern grundlegend verschiedene Reifegrade. Zwei Unternehmen in derselben Branche, Region und Größe – eines mit Audit-Trails, eines ohne – unterscheiden sich fundamental in der KI-Datengovernance. Die Audit-Trail-Fähigkeit sagt die restliche Sicherheitslage besser voraus als jeder andere gemessene Faktor.
Dennoch fehlen 33% der Unternehmen revisionssichere Audit-Trails vollständig. Und jetzt kommt der Punkt, der Sicherheitsverantwortliche nachts wachhalten sollte: Weitere 61% haben fragmentierte Protokolle über verschiedene Systeme verteilt. Die Protokolle existieren – sie sind nur nicht aggregiert, normalisiert oder in relevanter Zeit auswertbar.
Kommt es zu einem Incident Response oder stellt ein Auditor gezielte Fragen, verbringen Sicherheitsteams in diesen Unternehmen Stunden – manchmal Tage – damit, Protokolle manuell über Plattformen hinweg zu korrelieren, um den Ablauf zu rekonstruieren. Sie setzen ein Puzzle zusammen, dessen Teile auf ein Dutzend verschiedene Boxen verteilt sind – jedes mit eigenem Format, eigener Aufbewahrungsrichtlinie, eigenen Lücken und Inkonsistenzen.
Das ist kein Beweis. Das ist Archäologie. Und Archäologie hält in regulatorischen Verfahren oder bei Datenschutzvorfällen nicht stand.
Die unbequeme Wahrheit, die Infrastrukturteams nicht hören wollen: Sie können keine KI-Datengovernance auf fragmentierter Infrastruktur aufbauen. Wer revisionssichere Audit-Trails auf separaten Datenbewegungssystemen – getrennte Plattformen für E-Mail, Filesharing, Managed File Transfer, Cloud-Speicher, Kollaborationstools, KI-Systeme – errichten will, baut auf Sand. Die Fragmentierung ist kein kleines Ärgernis, sondern eine strukturelle Begrenzung, die sich mit Tools allein nicht beheben lässt.
Auch bei der Governance von Trainingsdaten zeigt sich dieses Muster – mit Auswirkungen, die in regulatorische Bereiche reichen, die viele Unternehmen noch nicht vollständig durchdrungen haben. Wenn Aufsichtsbehörden fragen: „Woher wissen Sie, dass keine personenbezogenen Daten in Ihrem Modell sind?“ – können 78% der Unternehmen nicht antworten. Sie trainieren oder verfeinern Modelle, ohne die Integrität der Eingangsdaten zu validieren. Sie hoffen, dass die Trainingsdaten sauber sind, ohne einen Mechanismus zur Überprüfung.
Wenn eine betroffene Person ihr Löschrecht nach DSGVO, CCPA/CPRA oder neuen KI-Regulierungen ausübt – haben 53% keinen Mechanismus, um deren Daten aus trainierten Modellen zu entfernen. Sie müssen entweder komplett neu trainieren (teuer, zeitaufwändig, oft unpraktikabel für Produktivsysteme) oder hoffen, dass niemand fragt (eine Strategie mit ablaufendem Haltbarkeitsdatum).
Das „Recht auf Vergessenwerden“ kommt für KI. Die regulatorische Entwicklung ist eindeutig – alle großen Datenschutzrahmen erweitern die Betroffenenrechte auf KI-Training und -Inference. Und fast niemand ist vorbereitet.
Der Board-Effekt: Warum Führung mehr zählt als Budget oder Personal
Vorstandseinbindung ist laut unserer Umfrage der stärkste Indikator für KI-Reife – stärker als Branche, Region, Unternehmensgröße oder Sicherheitsbudget.
Bei 54% der Unternehmen steht KI-Datengovernance nicht unter den Top 5 Themen des Vorstands. Diese Unternehmen liegen bei allen wichtigen KI-Metriken um 26-28 Punkte zurück. Nicht bei einigen – bei allen gemessenen Metriken.
Organisationen ohne Vorstandseinbindung führen nur halb so häufig KI-Impact-Assessments durch (24% vs. 52%). Sie liegen 26 Punkte bei Zweckbindung und 24 Punkte bei Human-in-the-Loop-Kontrollen zurück. Das Muster ist eindeutig: Wenn Vorstände nicht nach KI-Datengovernance fragen, wird sie nicht aufgebaut. Ressourcen fließen woanders hin, Prioritäten verschieben sich nach dem, was gemessen wird. Sicherheitsteams können noch so sehr argumentieren – ohne Vorstandsfokus verliert KI-Datengovernance die Budgetkämpfe.
Die Branchenunterschiede sprechen für sich: Im öffentlichen Sektor sind 71% der Boards nicht eingebunden. Professional Services führen mit 80% Engagement – ein Unterschied von 51 Punkten zwischen Schlusslicht und Spitzenreiter.
Was das in der Praxis bedeutet: Behörden verwalten Bürgerdaten, vertrauliche Informationen und kritische Infrastruktur – mit der geringsten Vorstandsaufsicht für KI-Risiken aller Sektoren. Die Organisationen mit den sensibelsten Daten und höchsten Risiken haben am wenigsten Führung bei diesem neuen Risikofaktor.
Im Gesundheitswesen sind 55% der Boards nicht eingebunden. Im Finanzsektor 40%. Im Technologiesektor – der diese Systeme entwickelt und einsetzt – priorisieren 47% der Boards KI-Datengovernance nicht.
Diese Korrelation zeigt eine klare Handlungsaufforderung, die nicht technischer Natur ist: Wenn KI-Datengovernance nicht auf der Agenda Ihres Boards steht, bringen Sie sie dorthin. Sicherheitsverantwortliche, die warten, bis der Vorstand das Thema selbst entdeckt, überlassen den Zeitplan dem Zufall. Die Daten zeigen: Wo Führung hinschaut, werden die nötigen Fähigkeiten aufgebaut. Wo nicht, passiert es nicht. So direkt und so vorhersehbar ist es.
Tabelle 3: Board-Engagement nach Branche
| Branche | Board NICHT bei KI-Governance involviert | Lücke zum Spitzenreiter |
|---|---|---|
| Öffentlicher Sektor | 71% | -51 Punkte |
| Gesundheitswesen | 55% | -35 Punkte |
| Technologie | 47% | -27 Punkte |
| Finanzdienstleistungen | 40% | -20 Punkte |
| Professional Services | 20% | Benchmark |
Branchen- und Regionalergebnisse: Die Vorreiter, die Nachzügler und die Lehren
Der öffentliche Sektor ist eine Generation zurück. Nicht schrittweise, sondern grundsätzlich. Die Zahlen sind so deutlich, dass sie wiederholt werden sollten: 90% fehlt die Zweckbindung. 76% fehlt der Kill Switch. 33% haben keinerlei dedizierte KI-Kontrollen.
Lassen Sie diese letzte Zahl wirken: Ein Drittel der Behörden hat KI eingeführt – ohne jegliche spezifische Steuerung, wie diese Systeme auf sensible Daten zugreifen. KI läuft in Produktivumgebungen. Bürgerdaten fließen durch die Systeme. Es gibt keine KI-spezifische Governance, die beides verbindet.
Diese Organisationen verwalten Bürgerdaten und kritische Infrastruktur mit KI-Kontrollen, die hinter allen anderen Sektoren zurückbleiben. Die Herausforderung der KI-Datengovernance im öffentlichen Sektor erfordert Transformation, nicht schrittweise Verbesserung. Eine Checkliste schließt keine Generationenlücke. Die Übernahme des EU AI Act als Basis – auch wenn nicht gesetzlich vorgeschrieben – wäre ein Anfang, aber kein Endpunkt.
Australien ist der Benchmark – und der Beweis, dass Kompromisse nicht unvermeidlich sind. Australische Unternehmen liegen bei fast allen Metriken um +10-20 Punkte vorn, mit den stärksten Umsetzungs-Pipelines der Umfrage. Was Australien wirklich lehrreich macht: Sie zeigen, dass Sicherheit und Innovation kein Widerspruch sind.
Australische Unternehmen haben sowohl höhere KI-Adoptionsraten als auch stärkere Kontrollen. Sie müssen sich nicht zwischen Geschwindigkeit und Governance entscheiden. Sie tun beides gleichzeitig – und bauen ihren Vorsprung weiter aus. Sie schaffen einen kumulierten Vorteil, statt Sicherheit für Tempo oder umgekehrt zu opfern.
Jede Organisation, die behauptet, Kontrollen würden Innovation bremsen, sollte sich Australien genau anschauen. Die Ausrede hält den Fakten nicht stand.
Das Gesundheitswesen hat gravierende Lücken beim Incident Response, obwohl es die sensibelsten Daten verarbeitet. 77% der Gesundheitsorganisationen haben ihre Recovery Time Objectives nicht getestet. Sie wissen nicht, wie lange die Wiederherstellung dauert – bis sie mitten im Incident stecken. 64% fehlt KI-Anomalieerkennung. 68% arbeiten mit manuellen IR-Playbooks.
Diese Organisationen verwalten geschützte Gesundheitsdaten mit IR-Fähigkeiten, die den ersten ernsthaften KI-Vorfall nicht überstehen werden. Die Kombination aus hochsensiblen Daten, erheblicher regulatorischer Exposition und operativen Lücken schafft ein konzentriertes Risiko, das die Branche alarmieren sollte.
Die Fertigungsindustrie sieht überall blinde Flecken. 67% nennen Transparenzdefizite als Top-Sorge – 21 Punkte über dem globalen Durchschnitt. Komplexe, mehrstufige Lieferketten mit kaum Einblick, wie Daten darin fließen. Drittanbieter geben Daten an ihre Partner weiter, die sie wiederum weitergeben – ohne Transparenz an jedem Übergabepunkt.
Für die Fertigung ist Drittparteien-Transparenz kein Nice-to-have oder Zukunftsthema. Sie ist existenziell. Was Sie nicht sehen, können Sie nicht schützen – und die Fertigung sieht weniger als fast alle anderen.
Professional Services arbeitet unter Druck – und der Druck zeigt Wirkung. 80% Vorstandsfokus. 67% zentrale Gateway-Nutzung. 80% mit ethischen KI-Richtlinien. Diese Werte führen fast jede Kategorie an. Warum diese Ausreißerleistung?
Die Gefahr von Kundendatenlecks treibt diese Haltung. Jede Kontrollentscheidung wird durch eine harte Brille betrachtet: Was passiert, wenn Kundendaten abfließen? Was, wenn sensible Informationen in ein Modell gelangen, das wir nicht erklären oder auditieren können? Was bedeutet das für unseren Ruf, unsere Haftung, unsere Kundenbeziehungen?
Die Angst ist berechtigt. Die resultierende Governance ist das Ergebnis produktiv kanalisierten Investitionsdrucks – nicht von Lähmung.
Auch regionale Souveränitätsbedenken variieren stark und zeigen, wo regulatorische Durchsetzung das Verhalten bereits verändert hat – und wo Unternehmen noch auf Theorie setzen.
Im Nahen Osten (VAE und Saudi-Arabien) äußern 42-45% Bedenken bezüglich des KI-Datenumgangs von Drittanbietern – getrieben durch explizite Anforderungen an die Datenlokalisierung mit echten Strafen bei Nichteinhaltung. Deutschland sticht mit 60% Besorgnis über unautorisierte Weitergabe hervor – fast doppelt so hoch wie der globale Durchschnitt. Die DSGVO hat die Haftung für Datenflüsse für deutsche Unternehmen greifbar gemacht. Sie haben erlebt, wie Kollegen Konsequenzen tragen mussten. Sie haben Strafen gesehen. Sie haben sich angepasst.
Diese Regionen sehen das Souveränitätsproblem klar, weil sie den regulatorischen Druck bereits gespürt haben. Die meisten anderen operieren noch auf Zeit – in der Annahme, dass die Durchsetzung sie nicht erreicht oder sie vorher gewarnt werden.
Drittparteienrisiko: Die Transparenzkrise, die niemand gelöst hat
Jährliche Lieferantenfragebögen funktionieren in einer KI-getriebenen Umgebung nicht mehr. Der Checkbox-Ansatz beim Drittparteienrisikomanagement – Fragebogen senden, wohlformulierte Antworten erhalten, ablegen für Compliance-Zwecke, nächstes Jahr wiederholen – war schon für klassische Datenverarbeitung unzureichend. Für KI ist er nicht nur unzureichend. Er ist Theater.
Doch 89% der Unternehmen haben keinen Ersatz dafür. Sie wissen, dass der alte Ansatz nicht funktioniert. Sie haben aber noch keinen neuen entwickelt.
Das Transparenzproblem ist gravierend und weitgehend ungelöst:
- Nur 36% haben irgendeine Transparenz, wie Partner Daten in KI-Systemen verarbeiten
- 89% haben nie Incident Response mit Drittanbietern geübt
- 87% fehlt ein gemeinsames IR-Playbook mit Partnern
- 84% haben keinen automatisierten Mechanismus, um Partnerzugriff schnell zu entziehen
Wenn ein Partner kompromittiert wird – und das passiert regelmäßig – werden fast neun von zehn Unternehmen improvisieren. Kein Playbook. Keine Übung. Kein abgestimmter Kommunikationsplan. Das erste Mal, dass sie einen Incident gemeinsam mit einem kritischen Lieferanten durchspielen, ist im Ernstfall – wenn die Stakes am höchsten sind, die Zeit am knappsten und niemand den Luxus hat, Dinge erst zu klären.
Die Software-Lieferkette verstärkt diese Risiken in Bereiche, die viele Unternehmen noch nicht bedacht haben. 72% der Unternehmen können kein verlässliches Inventar ihrer Softwarekomponenten vorweisen. Wenn die nächste Log4j-ähnliche Schwachstelle auftaucht – und das wird sie – werden fast drei Viertel der Unternehmen hektisch versuchen, ihre Exponierung zu bestimmen, weil sie kein Software Bill of Materials haben. Sie werden Lieferanten anrufen, Dokumentationen durchsuchen, Systeme manuell prüfen – während die Uhr tickt.
Die KI-Lieferkette ist noch problematischer, denn immerhin gibt es für Softwarekomponenten etablierte Inventarstandards – auch wenn sie selten genutzt werden. Für KI-Modell-Attestierungen gibt es keinen Standard. Kaum jemand verfolgt die Herkunft von Modellen systematisch. Unternehmen wissen, dass sie das brauchen – 35% nennen KI-Lieferkettenrisiken unter ihren Top 3 Sorgen. Sie liegen damit richtig.
Aber Tools und Standards fehlen, und Unternehmen bauen keine Workarounds. Sie warten darauf, dass jemand anderes das Problem löst, während sie weiterhin Modelle einsetzen, die sie nicht vollständig verifizieren können. Das ist ein kalkuliertes Risiko – und die Rechnung könnte nicht aufgehen.
Tabelle 4: Third-Party-Risk Reality Check
| Fähigkeit | Aktueller Stand |
|---|---|
| Transparenz beim KI-Datenumgang von Partnern | Nur 36% haben sie |
| IR mit Drittanbietern geübt | Nur 11% haben es gemacht |
| Gemeinsame IR-Playbooks mit Partnern | Nur 13% haben sie |
| Automatischer Kill Switch für Partnerzugriff | Nur 16% haben ihn |
Regulatorische Entwicklung: EU AI Act als globaler De-facto-Standard
Organisationen, die nicht vom EU AI Act betroffen sind, liegen bei allen wichtigen KI-Kontrollen um 22-33 Punkte zurück. Die Lücken sind nicht schrittweise – sie sind grundlegend:
- 74% der nicht betroffenen Unternehmen fehlt eine KI-Impact-Analyse (vs. 41% der betroffenen)
- 72% fehlt die Zweckbindung (vs. 46%)
- 84% haben kein KI-Red-Teaming durchgeführt (vs. 61%)
- 48% fehlt Human-in-the-Loop (vs. 26%)
Der EU AI Act schafft einen Zwei-Klassen-Markt – ob Unternehmen außerhalb Europas das erkennen oder nicht. Wer unter regulatorischem Druck steht, baut Governance-Infrastruktur, weil er muss. Wer nicht betroffen ist, tut es meist nicht – weil er noch nicht muss. Die regulatorische Zwangswirkung funktioniert wie geplant – und schafft eine Divergenz, die später teuer zu schließen sein wird.
82% der US-Unternehmen geben an, den Druck des EU AI Act noch nicht zu spüren. Das „noch“ ist entscheidend. Die Regulierung verbreitet sich über Mechanismen, die keine direkte Zuständigkeit erfordern: Anforderungen an das Lieferkettenrisikomanagement (europäische Kunden verlangen Compliance von US-Anbietern), internationale Aktivitäten (jede Organisation mit Geschäft in Europa muss für diese Aktivitäten compliant sein) und Wettbewerbsvergleiche (was „gute Governance“ bedeutet, definieren die, die sie zuerst umsetzen – aktuell sind das die Europäer).
Wer den EU AI Act als europäisches Problem abtut, wird bei der KI-Datengovernance um 22-33 Punkte zurückfallen, sobald der Rahmen globaler Standard wird. Entweder holen sie später unter Zeitdruck und höheren Kosten auf – oder sie verlieren Geschäft an Wettbewerber, die früher investiert haben. Keine der Optionen ist attraktiv.
Auch die Datensouveränität hat sich von Speicherung auf Verarbeitung ausgeweitet – und die meisten Unternehmen haben ihre Kontrollen oder ihr Denken nicht angepasst. Zu wissen, wo Daten gespeichert werden, reicht nicht mehr. 29% der Unternehmen nennen grenzüberschreitende KI-Transfers als Top-Risiko, aber die meisten haben nur die Speicherung geregelt – nicht, wo Daten verarbeitet, trainiert oder inferiert werden.
Ein Prompt an einen Cloud-KI-Anbieter kann in einer anderen Jurisdiktion verarbeitet, zur Feinabstimmung von Modellen in einem weiteren Land genutzt oder zur Generierung von Ergebnissen verwendet werden, die mehrere Grenzen überschreiten, bevor sie zum Anwender zurückkehren. Klassische Residenzanforderungen greifen hier nicht mehr. Sie waren für ruhende Daten konzipiert, nicht für Daten in Bewegung durch KI-Pipelines. Wer nur die Speicherung regelt und die Verarbeitung ignoriert, wird zunehmend unangenehme Compliance-Diskussionen führen, wenn Regulierer aufholen.
Post-Quantum-Kryptografie ist ein weiterer Zeitfaktor, den die meisten Unternehmen ignorieren oder aufschieben. 84% haben PQC nicht implementiert. Fast die Hälfte nutzt sie gar nicht – und vermutlich ist die reale Zahl noch höher, da manche Befragte Fähigkeiten übertrieben angeben.
Die „Harvest now, decrypt later“-Bedrohung ist bereits aktiv – Angreifer können heute verschlüsselte Daten abgreifen und warten, bis Quantencomputer sie knacken. Für Daten, die ein Jahrzehnt oder länger vertraulich bleiben müssen – medizinische Akten, Finanzdaten, Verschlusssachen, geistiges Eigentum, Rechtsdokumente – läuft das Zeitfenster ab. Wer nicht mit der Planung begonnen hat, ist bereits hinter dem Migrationszeitplan, der bis 2030 und darüber hinaus reicht.
Was jetzt zu tun ist: Prioritäten, die nicht warten können
Unmittelbare Prioritäten (Q1-Q2 2026):
Schließen Sie die Kill-Switch-Lücke. 60% der Unternehmen können KI-Agenten nicht schnell beenden. Wenn der erste große Vorfall diese Lücke offenlegt – und das wird passieren, weil Vorfälle immer Schwächen aufdecken – möchten Sie Ihrem Board nicht erklären müssen, warum diese Grundfunktion fehlte. Das ist Grundvoraussetzung für KI im Produktivbetrieb – und die meisten Unternehmen haben sie nicht.
Implementieren Sie Zweckbindung. 63% haben keine Begrenzung, was KI-Agenten tun dürfen. Das ist die größte Fähigkeitslücke in unserer Umfrage – und die, die am ehesten für Schlagzeilen sorgen wird, wenn sie versagt. Ein KI-Agent, der auf alles zugreifen kann, wird irgendwann auf etwas zugreifen, das er nicht sollte.
Prüfen Sie Ihre Audit-Trails. 33% fehlen revisionssichere Trails vollständig. Weitere 61% haben Protokolle verstreut über Systeme, die niemand in relevanter Zeit korrelieren kann. Sie können keine KI-Datengovernance auf fragmentierter Infrastruktur aufbauen – egal wie gut Ihre Tools sind. Wenn Ihre Protokolle Tage manueller Arbeit erfordern, um einen Vorfall zu rekonstruieren, sind es keine Audit-Trails, sondern historische Aufzeichnungen mit begrenztem forensischem Wert.
Erfassen Sie Ihre agentischen KI-Use Cases. Sie können nur steuern, was Sie kennen. Schatten-KI verbreitet sich schneller, als die meisten Sicherheitsteams ahnen – Fachbereiche setzen Lösungen ein, die Security nie geprüft oder genehmigt hat und von deren Existenz sie nichts weiß. Beginnen Sie mit Transparenz über laufende Systeme.
Bewerten Sie Ihre Drittparteien-KI-Exponierung. Nur 36% haben Transparenz, wie Partner KI-Daten verarbeiten. Der Rest verlässt sich auf Verträge, um sich vor Risiken zu schützen, die sie nicht sehen und nicht messen. Finden Sie heraus, was Ihre Anbieter mit Ihren Daten in KI-Systemen tun – nicht, was ihre Verträge behaupten.
Tabelle 5: Top KI-Sicherheits- und Datenschutzrisiken
| Risiko | % als Top-Sorge genannt | Aktuelle Kontrollreife |
|---|---|---|
| Datenumgang von KI-Drittanbietern | 30% | Schwach – nur 36% haben Transparenz |
| Vergiftung von Trainingsdaten | 29% | Sehr schwach – 22% haben Vorab-Validierung |
| Leakage personenbezogener Daten über Outputs/Embeddings | 27% | Schwach – 37% haben Zweckbindung |
| Insider-Bedrohungen durch KI verstärkt | 26% | Mittel – 59% mit Human-in-the-Loop |
| Personenbezogene Daten in Prompts | 35% | Sehr schwach – meist nur Richtlinie, selten technisch |
| Schatten-KI | 23% | Sehr schwach – kaum Discovery-Tools |
Mittelfristige Prioritäten (H2 2026):
Führen Sie KI-Anomalieerkennung ein. 60% fehlt sie – das größte Incident-Response-Defizit in unserer Umfrage. Von 40% auf ausreichende Abdeckung zu kommen, erfordert Tool-Beschaffung, Aufbau von Datenpipelines, Modell-Feinabstimmung, Alert-Triage-Prozesse und Mitarbeiterschulungen. Das ist kein Schnellschuss – starten Sie jetzt, wenn Sie bis Jahresende bereit sein wollen.
Bauen Sie Trainingsdaten-Governance auf. 78% können keine Daten validieren, die in Trainingspipelines fließen. 77% können die Herkunft nicht nachvollziehen. 53% können Trainingsdaten nach Vorfällen nicht wiederherstellen. Regulierer werden fragen, was in Ihren Modellen steckt. „Wir wissen es nicht“ ist keine Antwort, die lange Bestand hat.
Erstellen Sie gemeinsame IR-Playbooks mit kritischen Anbietern. 87% fehlt es. 89% haben Incident Response nie mit Partnern geübt. Üben Sie, bevor Sie im Ernstfall gemeinsam reagieren müssen – denn mitten im Vorfall ist der schlechteste Zeitpunkt, Kommunikationswege und Entscheidungsrechte festzulegen.
Konsolidieren Sie fragmentierte Datenbewegungsinfrastruktur. 61% betreiben getrennte Systeme, die keine revisionssicheren Audit-Trails oder einheitliche KI-Datengovernance ermöglichen. Moderne Bedrohungen erfordern moderne Infrastruktur – und von fragmentiert zu einheitlich kann man sich nicht patchen.
Verlangen Sie KI-Attestierungen von Drittanbietern bei Vertragsverlängerungen. Fragebögen reichen nicht mehr. Bauen Sie Anforderungen an den KI-Umgang in Ihre 2026er Lieferantenverträge ein, solange Sie noch Verhandlungsspielraum haben – nicht erst nach einem Vorfall.
Die Kluft wird sich erst vergrößern, bevor sie sich schließt
Das Muster, das alle Sicherheitsverantwortlichen für 2026 und darüber hinaus beunruhigen sollte: Die Unternehmen, die KI am aggressivsten einführen, steuern sie auch am besten. Wer erst am Anfang steht, hat fast nichts implementiert – 79-81% fehlt es an grundlegenden Containment-Kontrollen – und wird die Einführung jetzt beschleunigen, weil der Wettbewerbsdruck es verlangt.
Das führt zu einer Spaltung, nicht zu einer Annäherung. Die Vorreiter bauen ihren Vorsprung aus. Jede Kontrolle, die sie implementieren, macht die nächste leichter. Jeder vermiedene Vorfall ist ein Lerneffekt, den Nachzügler erst durch eigene Fehler gewinnen. Die Kluft zwischen vorbereiteten und unvorbereiteten Unternehmen wird sich bis 2026 weiter vergrößern, nicht verkleinern.
Die nächste Welle von KI-Sicherheitsvorfällen wird wahrscheinlich von Unternehmen ausgehen, die KI ohne die Governance-Infrastruktur der Erfahreneren einsetzen. Sie werden die gleichen Lektionen lernen – nur öffentlicher, teurer und mit weniger Zeit zur Erholung vor dem nächsten Vorfall.
Die 15 Prognosen im vollständigen Bericht zeigen, wohin der Markt steuert. Die Lücken zeigen, wo Unternehmen exponiert sind. 100% haben KI auf der Roadmap. Die Mehrheit kann sie nicht steuern. 63% können keine Zweckbindung durchsetzen. 60% können fehlverhaltende Agenten nicht beenden. 53% können Trainingsdaten nach Vorfällen nicht wiederherstellen.
Die Prognosen zeigen die Richtung. Die Lücken zeigen Ihre Schwachstellen. Was mit Ihrem Unternehmen passiert, hängt ganz davon ab, was Sie mit diesen Informationen tun.
Häufig gestellte Fragen
100% der befragten Unternehmen haben agentische KI auf ihrer Roadmap – keine einzige Ausnahme. Die Studie, basierend auf 225 Sicherheits-, IT- und Risikoverantwortlichen aus 10 Branchen und 8 Regionen, zeigt: KI-Einführungspläne sind universell. Die Herausforderung ist nicht, ob Unternehmen KI einsetzen, sondern ob sie die Governance- und Containment-Kontrollen haben, um sie sicher zu steuern.
Die Governance-Containment-Lücke bezeichnet den Unterschied von 15-20 Punkten zwischen der Fähigkeit von Unternehmen, KI-Systeme zu überwachen, und ihrer Fähigkeit, diese tatsächlich zu stoppen. Während 59% Human-in-the-Loop-Überwachung und 58% kontinuierliches Monitoring nutzen, verfügen nur 37% über Zweckbindung und 40% über Kill-Switch-Funktionen. Die meisten Unternehmen können beobachten, wie KI-Agenten Unerwartetes tun, aber sie können nicht verhindern, dass diese den autorisierten Rahmen überschreiten oder sie schnell abschalten.
Nur 40% der Unternehmen verfügen über Kill-Switch-Funktionen, um fehlverhaltende KI-Agenten schnell zu beenden. Die übrigen 60% fehlt diese grundlegende Containment-Kontrolle – sie können ein KI-System, das außerhalb der Erwartungen agiert oder auf unbefugte Daten zugreift, nicht rasch stoppen. Selbst bei ambitionierter Umsetzung werden laut Prognose bis Ende 2026 noch 26% bis 36% diese Fähigkeit vermissen.
Der öffentliche Sektor ist am stärksten exponiert: 90% fehlt die Zweckbindung, 76% fehlt der Kill Switch und 33% haben keinerlei dedizierte KI-Kontrollen. Das Gesundheitswesen folgt mit gravierenden Incident-Response-Lücken – 77% haben Recovery Time Objectives nie getestet und 64% fehlt KI-Anomalieerkennung. Die Fertigungsindustrie kämpft mit massiven Transparenzproblemen gegenüber Drittparteien – 67% nennen blinde Flecken in ihren Lieferketten.
Organisationen mit revisionssicheren Audit-Trails haben bei allen gemessenen KI-Metriken – einschließlich Trainingsdaten-Wiederherstellung, Human-in-the-Loop-Kontrollen und Zweckbindung – einen Vorsprung von 20-32 Punkten. Audit-Trails sind das Fundament für Verantwortlichkeit, Incident Response und Compliance. Die 33% ohne Audit-Trails und 61% mit fragmentierten Protokollen können keine effektive KI-Datengovernance aufbauen, weil sie nicht nachweisen können, was im Ernstfall passiert ist.
Organisationen, die nicht direkt vom EU AI Act betroffen sind, liegen bei KI-Kontrollen wie Impact Assessments, Zweckbindung und Red Teaming um 22-33 Punkte zurück. Die Regulierung wirkt global – über Anforderungen im Lieferkettenmanagement (europäische Kunden verlangen Compliance), internationale Aktivitäten und Wettbewerbsvergleiche. 82% der US-Unternehmen spüren den Druck noch nicht, aber der EU AI Act definiert bereits weltweit, wie „gute KI-Datengovernance“ aussieht – und schafft einen Zwei-Klassen-Markt zwischen konformen und nicht-konformen Unternehmen.