Aufsichtsbehörden fragen nicht mehr, ob Sie eine KI-Richtlinie haben. Sie verlangen den Nachweis, dass sie funktioniert.

Der International AI Safety Report 2026 ist als wissenschaftliche Bewertung konzipiert, um die Politikgestaltung zu unterstützen. Er untersucht, wozu General-Purpose-AI heute in der Lage ist, welche neuartigen Risiken daraus entstehen und welche Ansätze zum Risikomanagement existieren. Es handelt sich nicht um eine Regulierung. Es ist keine Richtlinie. Es ist potenziell noch folgenreicher – die Evidenzbasis, auf die sich Aufsichtsbehörden in verschiedenen Rechtsräumen stützen werden, um künftige Anforderungen festzulegen.

Aus der Perspektive der Wirtschaftskriminalität – wie sie Hogan Lovells in einer aktuellen Analyse eingenommen hat – weist der Bericht auf drei praktische Probleme hin, mit denen jedes Unternehmen konfrontiert ist. Betrug an Unternehmen ist einfacher denn je. Es ist schwieriger denn je zu überprüfen, ob etwas echt ist. Und es ist unklar, wer zur Verantwortung gezogen werden kann, wenn ein Schaden eintritt.

Diese Kombination – niedrigere Hürden für Betrug, geschwächtes Vertrauen in die Kommunikation und unklare Verantwortlichkeiten – schafft ein regulatorisches und Compliance-Umfeld, in dem Unternehmen sich Governance von KI nicht als reine Richtlinienübung leisten können. Aufsichtsbehörden gehen über die Frage hinaus, ob Governance-Rahmenwerke existieren. Sie fragen zunehmend, ob diese Rahmenwerke durchgesetzt werden, ob Kontrollen getestet werden und ob Unternehmen nachweisen können, dass ihre KI-Systeme keine Daten verarbeiten, die sie nicht verarbeiten dürfen, oder Entscheidungen treffen, die sie nicht treffen sollten.

Die eigene Bewertung des aktuellen Risikomanagements im Bericht ist eindeutig: Die derzeitigen Maßnahmen verhindern Schäden nicht zuverlässig, und der Nachweis ihrer Wirksamkeit unter realen Bedingungen ist begrenzt. Für Unternehmen, die KI in Hochrisikobereichen einsetzen, ist die Botschaft klar. Die Governance-Lücke zwischen Richtlinie und Nachweis ist der Bereich, in dem regulatorische Risiken entstehen.

5 wichtige Erkenntnisse

  1. KI hat Betrug günstiger, schneller und schwerer zurückzuverfolgen gemacht als je zuvor. Der International AI Safety Report 2026 kommt zu dem Schluss, dass General-Purpose-AI Betrug, Identitätsdiebstahl und Cyberangriffe günstiger, schneller und schwerer zurückzuverfolgen macht. Die aktuellen Schutzmaßnahmen verhindern Schäden nicht zuverlässig. Im Bericht zitierte Studien zeigen, dass Zuhörer KI-generierte Stimmen in 80 % der Fälle für echte Sprecher halten. Bereits heute werden geklonte Stimmen genutzt, um Opfer durch Ausnutzen vertrauensbasierter Freigabeprozesse zur Geldüberweisung zu bewegen. Die Eintrittsbarriere für Wirtschaftsbetrug ist faktisch zusammengebrochen.
  2. Synthetische Inhalte untergraben vertrauensbasierte Kontrollen, auf die Unternehmen angewiesen sind. Stimme, Video und E-Mail sind für risikoreiche Aktionen nicht mehr vertrauenswürdig. Eine glaubwürdige synthetische „Führungskraft“-Anfrage zur Überweisung von Geldern, Änderung von Bankdaten eines Lieferanten, Umgehung von Freigabeschritten, Zurücksetzen von Zugangsdaten oder Weitergabe sensibler Informationen erfordert heute kaum technisches Know-how. Der Bericht stellt fest, dass technische Lösungen wie Wasserzeichen und Labels helfen können, aber erfahrene Akteure diese oft entfernen und die Herkunft von Deepfakes schwer zu ermitteln ist. Die Kontrollen, auf die die meisten Unternehmen setzen – Vertrauen in die Stimme am Telefon, das Gesicht im Videocall, den Namen in der E-Mail – sind nun im großen Stil ausnutzbar.
  3. Aufsichtsbehörden verlangen dokumentierte Governance-Rahmenwerke – nicht nur KI-Richtlinien auf Papier. Der Bericht widmet mehr als die Hälfte seines Umfangs Risikomanagementpraktiken und signalisiert, dass Aufsichtsbehörden zunehmend erwarten, dass Unternehmen KI-Risiken durch dokumentierte Governance-Rahmenwerke, Risikobewertungen und Kontrollen steuern, die explizit Datenintegrität und Missbrauch adressieren. Governance-Initiativen nehmen zu – der EU AI Act, der G7 Hiroshima Process, Entwickler-Sicherheitsrahmenwerke – aber die eigene Bewertung im Bericht ist zurückhaltend: Der Nachweis der Wirksamkeit der meisten Risikomanagementmaßnahmen unter realen Bedingungen bleibt begrenzt. Die Lücke zwischen einem Governance-Dokument und dem Nachweis, dass Governance tatsächlich gelebt wird, ist der Bereich, in dem regulatorische Risiken entstehen.
  4. KI schafft Wirtschaftskriminalitätsrisiken von innen – nicht nur von außen. Das Risiko von Wirtschaftskriminalität beschränkt sich nicht auf externe Angreifer. Mitarbeitende, Beauftragte und andere verbundene Personen können KI nutzen, um glaubwürdige Fälschungen zu erzeugen, unterstützende Dokumente zu fabrizieren und Audit-Trails zu verschleiern. Im Vereinigten Königreich überschneidet sich dies direkt mit dem „Failure to Prevent Fraud“-Delikt, das seit September 2025 für große Unternehmen gilt. KI-gestützte Methoden – gefälschte Freigabeanfragen, fingierte Dokumentation, massenhafte synthetische Kommunikation – müssen nun in Betrugsrisikobewertungen, Schulungen und Präventionsmaßnahmen adressiert werden.
  5. Defense in Depth ist nicht optional – sie ist die zentrale Empfehlung des Berichts. Der Bericht betont, dass kein einzelner Schutzmechanismus gegen KI-gestützte Bedrohungen zuverlässig ist. Empfohlen wird Defense in Depth: mehrere unabhängige Schutzebenen, sodass beim Ausfall einer Ebene andere weiterhin Schäden verhindern. Für Unternehmen bedeutet das: Vier-Augen-Prinzip, Rückrufe über bekannte Nummern, Hürden für neue oder geänderte Zahlungsempfänger, Out-of-Band-Verifizierung bei risikoreichen Aktionen und KI-Incident-Response-Übungen, die umstrittene Authentizität, schnelle Abschaltentscheidungen und Beweissicherung testen. Resilienz, nicht Prävention, ist das Betriebsmodell.

Synthetische Inhalte haben das Vertrauensmodell zerstört, auf dem Betrugskontrollen basieren

Der Bericht hebt schädliche Vorfälle mit KI-generierten Inhalten hervor, insbesondere Audio- und Video-Imitationen. Er verweist auf Studien, wonach Zuhörer KI-generierte Stimmen in 80 % der Fälle für echte Sprecher halten. Es werden Fälle beschrieben, in denen geklonte Stimmen genutzt wurden, um vertrauensbasierte Freigabeprozesse auszunutzen und Opfer zur Überweisung von Geldern zu bewegen.

Für Unternehmen sind die Auswirkungen unmittelbar und konkret. Ein Anruf des CFO zur Autorisierung einer dringenden Überweisung. Eine Videokonferenz mit einem Lieferanten zur Bestätigung geänderter Bankdaten. Eine E-Mail eines Vorstandsmitglieds mit der Bitte um vertrauliche Unterlagen. All diese Szenarien wurden bereits mit synthetischen Inhalten ausgenutzt. Sie alle basierten auf dem Vertrauen des Empfängers in die scheinbare Identität der anfragenden Person.

Der Bericht benennt die Grenzen technischer Gegenmaßnahmen. Wasserzeichen und Labels können helfen, aber erfahrene Akteure entfernen sie. Die Herkunft von Deepfakes ist schwer zu ermitteln. Es gibt Erkennungstools, aber sie sind nicht zuverlässig genug, um als primäre Verteidigung zu dienen. Die praktische Konsequenz: Unternehmen können sich nicht darauf verlassen, synthetische Inhalte nach deren Eingang zu erkennen. Sie benötigen Kontrollen, die davon ausgehen, dass Kommunikation möglicherweise nicht authentisch ist, und eine unabhängige Verifizierung vor risikoreichen Aktionen verlangen.

Das bedeutet, Stimme, Video und E-Mail als nicht vertrauenswürdige Kanäle für Zahlungen, Lieferantenänderungen, Zurücksetzen von Zugangsdaten und dringende Freigaben zu behandeln. Es bedeutet, Out-of-Band-Verifizierung über einen separaten, vorab festgelegten Kanal zu verlangen. Es bedeutet, Prozesse mit Hürden zu versehen, die Angreifer durch Geschwindigkeit ausnutzen wollen. Das Vertrauensmodell, auf dem die meisten Betrugskontrollen von Unternehmen beruhen – dass eine bekannte Stimme oder ein bekanntes Gesicht als Autorisierung genügt – ist nicht mehr tragfähig.

Sie vertrauen darauf, dass Ihr Unternehmen sicher ist. Aber können Sie es auch nachweisen?

Jetzt lesen

Cyber-Operationen werden zur Massenware – auch ohne vollständige Autonomie

Der Bericht widmet dem KI-Einsatz bei Cyberangriffen große Aufmerksamkeit und stellt fest, dass Entwickler zunehmend von Missbrauch ihrer Systeme in Cyber-Operationen berichten und illegale Marktplätze einfach zu bedienende Tools anbieten, die die Anforderungen an die Fähigkeiten der Angreifer senken.

Der Bericht bleibt vorsichtig mit Übertreibungen. Vollständig autonome Ende-zu-Ende-Cyberangriffe sind nicht bestätigt. Es ist schwierig zu belegen, ob reale Vorfälle speziell durch KI zugenommen haben. Doch der praktische Aspekt ist wichtiger als der theoretische: Kombinierte Angriffe werden einfacher. Synthetische Inhalte verschaffen Zugang oder Autorisierung, kombiniert mit KI-gestützter Ausnutzung und Persistenz. Der Angreifer benötigt keine vollständige Autonomie – ausreichend Automatisierung genügt, um jede Phase schneller und günstiger zu machen.

Der Bericht äußert verhaltenen Optimismus: Es bleibt offen, ob künftige Fortschritte Angreifern oder Verteidigern mehr nutzen. Dieser Vorteil entsteht aber nur, wenn Unternehmen KI wirksam in Sicherheit und Betrugserkennung einsetzen. Unternehmen, die in KI-gestützte Verteidigung investieren, sind besser aufgestellt als jene, die KI-gestützten Angriffen mit traditionellen Mitteln begegnen. Wer abwartet, wird feststellen, dass sich das Ungleichgewicht zu seinen Ungunsten vergrößert.

Für Compliance-Teams unterstreicht die Diskussion zu Cyber-Operationen einen wichtigen Punkt: KI-Systeme, die große Mengen Unternehmensdaten verarbeiten, schaffen neue Compliance-Herausforderungen. Werden KI-Tools in Sicherheitsoperationen eingesetzt – Netzwerküberwachung, Log-Analyse, Anomalieerkennung – verarbeiten sie Daten, die personenbezogene Informationen, geschützte Gesundheitsdaten und regulierte Finanzdaten umfassen können. Das Governance-Rahmenwerk für KI muss diese Datenflüsse berücksichtigen, nicht nur die Entscheidungsoutputs der KI.

Das Wirtschaftskriminalitätsrisiko aus dem Inneren des Unternehmens

Die wohl am meisten unterschätzte Erkenntnis des Berichts für Unternehmen ist: KI schafft Wirtschaftskriminalitätsrisiken von innen, nicht nur von außen. Mitarbeitende, Beauftragte und andere verbundene Personen können General-Purpose-AI nutzen, um glaubwürdige gefälschte Dokumente zu erzeugen, Freigabeanfragen zu fabrizieren, synthetische Kommunikation zu erstellen und Audit-Trails zu verschleiern.

Im Vereinigten Königreich überschneidet sich dies direkt mit dem „Failure to Prevent Fraud“-Delikt, das am 1. September 2025 für große Unternehmen in Kraft getreten ist. Das Delikt fokussiert darauf, ob ein Unternehmen angemessene Präventionsmaßnahmen hatte, wenn eine verbundene Person bestimmte Betrugsdelikte begeht, um das Unternehmen oder dessen Kunden zu begünstigen. KI-gestützte Methoden – gefälschte Freigabeanfragen, fingierte Dokumente, massenhafte synthetische Kommunikation – müssen nun explizit in jeder Betrugsrisikobewertung, jedem Trainingsprogramm und jeder Präventionsmaßnahme adressiert werden.

Die Diskussion des Berichts zu Automatisierungs-Bias fügt eine weitere Dimension hinzu. Wenn Teams KI-gestützten Ergebnissen auch dann folgen, wenn sie falsch sind, riskieren Unternehmen Entscheidungen und Aussagen, die schwerer belegbar und verteidigbar sind. Das betrifft Offenlegungen gegenüber Aufsichtsbehörden, vertragliche Zusicherungen und den Umgang mit Geschäftspartnern. Der Audit-Trail einer KI-gestützten Entscheidung erfasst möglicherweise nicht die Begründung, die Dateninputs oder das Ausmaß menschlicher Prüfung im Vergleich zur bloßen Absegnung. Wenn eine Aufsichtsbehörde oder ein Geschäftspartner später fragt, wie eine Entscheidung zustande kam, führt das Fehlen dieser Dokumentation zu Risiken.

Unternehmen benötigen eine Audit-Infrastruktur, die nicht nur erfasst, was KI-Systeme getan haben, sondern auch, auf welche Daten sie zugegriffen, welche Ergebnisse sie produziert und welche Handlungen Menschen auf Basis dieser Ergebnisse vorgenommen haben. Ohne dieses Maß an Dokumentation lässt sich nicht mehr nachweisen, ob eine Entscheidung von einem Menschen mit KI-Unterstützung getroffen oder von einer KI mit menschlichem Abnicken gefällt wurde.

KI-Governance erfordert Data Governance – und Audit-Trails als Nachweis

Die Analyse des Risikomanagements im Bericht führt zu einer Schlussfolgerung, die Unternehmen mit KI-Einsatz nicht ignorieren können: KI-Governance-Rahmenwerke sind nur so glaubwürdig wie die zugrunde liegende Data-Governance-Infrastruktur.

Wenn eine Aufsichtsbehörde fragt, wie ein Unternehmen weiß, dass seine KI keine Daten verarbeitet, die sie nicht verarbeiten darf, reicht ein Richtliniendokument nicht aus. Es braucht einen Audit-Trail, der zeigt, auf welche Daten die KI wann, mit welcher Autorisierung zugegriffen hat und welche Aktionen erfolgten. Wenn eine Aufsichtsbehörde fragt, ob KI-Systeme die Datenschutzpflichten einhalten, muss die Antwort den Nachweis der Umsetzung enthalten – nicht nur den Nachweis, dass Richtlinien existieren.

Diese Anforderungen überschneiden sich mit mehreren regulatorischen Rahmenwerken gleichzeitig. Nach DSGVO müssen KI-Systeme, die personenbezogene Daten verarbeiten, die Vorgaben aus Artikel 22 zu automatisierten Entscheidungen, Artikel 28 zu Auftragsverarbeitern, Artikel 30 zu Verarbeitungsverzeichnissen und die Artikel 44 bis 50 zu internationalen Datenübermittlungen erfüllen. Nach HIPAA müssen KI-Systeme, die auf geschützte Gesundheitsdaten zugreifen, die Anforderungen der Security Rule zur Überprüfung der Systemaktivitäten einhalten. Nach Geldwäsche- und Sanktionsvorgaben müssen KI-Systeme zur Finanzkriminalitätsbekämpfung nachweisen, dass sie innerhalb genehmigter Parameter arbeiten.

Die operative Infrastruktur zur Erfüllung dieser Anforderungen umfasst umfassende Audit-Trails, die jede KI-Interaktion mit Unternehmensdaten protokollieren – Zeitstempel, Benutzer-IDs, Datenklassifizierungen, getätigte Aktionen. Sie umfasst Datenklassifizierungssysteme, die Zugriffsrichtlinien automatisch durchsetzen, sodass KI-Agenten keine Datenkategorien verarbeiten können, für die sie nicht autorisiert sind. Sie umfasst Anomalieerkennung, die ungewöhnliche Datenzugriffe von KI-Systemen meldet, und automatisierte Benachrichtigungen mit Eskalationswegen, damit Vorfälle die richtigen Personen erreichen.

Ohne diese Infrastruktur bleiben KI-Governance-Rahmenwerke Wunschdenken. Mit ihr können Unternehmen gegenüber Aufsichtsbehörden nachweisen, dass Kontrollen durchgesetzt, Datenflüsse dokumentiert und Governance tatsächlich gelebt wird – nicht nur auf dem Papier. Das Kiteworks AI Data Gateway und Private Data Network bieten genau diese Ebene: Sie steuern, auf welche Daten KI-Systeme zugreifen dürfen, protokollieren jede Interaktion und liefern regulatorisch belastbare Nachweise, die Richtliniendokumente allein nicht bieten können.

Defense in Depth: Das Betriebsmodell des Berichts für KI-Risiken

Die zentrale Empfehlung des Berichts ist Defense in Depth – mehrere Schutzebenen, sodass beim Ausfall einer Ebene andere weiterhin Schäden verhindern. Dieses Konzept ist in der Sicherheitsarchitektur nicht neu, wird im Bericht aber speziell auf KI-Risiken angewendet – mit unmittelbaren Auswirkungen auf die Struktur der Kontrollen in Unternehmen.

Für Betrugsprävention bedeutet Defense in Depth unabhängige Verifizierung auf mehreren Ebenen. Vier-Augen-Prinzip bei hochvolumigen Transaktionen. Rückrufe über vorab festgelegte Nummern, nicht über Nummern aus verdächtigen Nachrichten. Hürden für neue oder geänderte Zahlungsempfänger, die zusätzliche Verifizierungsschritte erzwingen. Zeitverzögerungen, die Angreifern die Ausnutzung von Dringlichkeit erschweren. Jede Ebene funktioniert unabhängig, sodass das Kompromittieren einer Ebene nicht die gesamte Kette gefährdet.

Für Data Governance bedeutet Defense in Depth Kontrollen auf Daten-, Applikations- und Netzwerkebene. Datenklassifizierung, die den Zugriff von KI-Systemen einschränkt. Zugriffskontrollen, die das Least-Privilege-Prinzip mit kontinuierlicher Verifizierung durchsetzen. Audit-Trails, die jede Interaktion dokumentieren. Anomalieerkennung, die Abweichungen von etablierten Mustern identifiziert. Und Incident-Response-Prozesse, die geprobt und nicht nur dokumentiert sind.

Der Bericht betont zudem die Notwendigkeit gesellschaftlicher Resilienz – die Fähigkeit von Systemen, Schocks und Schäden zu widerstehen, sie zu absorbieren, sich davon zu erholen und sich anzupassen. Für Unternehmen bedeutet das Incident-Response-Bereitschaft. Wer führt die Reaktion, wenn synthetische Inhalte für Betrug genutzt werden? Wer hat die Befugnis, betroffene Systeme zu pausieren oder abzuschalten? Wie kommuniziert das Unternehmen extern über den Vorfall? Wie werden Beweise für regulatorische und rechtliche Verfahren gesichert? Diese Fragen müssen vor dem Vorfall geklärt sein – nicht erst währenddessen.

Was Unternehmen jetzt tun sollten

Der International AI Safety Report 2026 richtet sich an politische Entscheidungsträger, hat aber unmittelbare Auswirkungen auf Unternehmen. Das fordern die Erkenntnisse des Berichts von Unternehmen, die KI einsetzen oder mit KI konfrontiert sind:

Behandeln Sie Stimme, Video und E-Mail als nicht vertrauenswürdig für risikoreiche Aktionen. Zahlungen, Lieferantenänderungen, Zurücksetzen von Zugangsdaten und dringende Freigaben müssen eine Out-of-Band-Verifizierung über einen separaten, vorab festgelegten Kanal erfordern. Das Vertrauensmodell, das auf der Erkennung von Stimme oder Gesicht basiert, ist gescheitert. Entwickeln Sie Verifizierungsprozesse, die davon ausgehen, dass Kommunikation synthetisch sein könnte.

Bauen Sie Defense in Depth mit unabhängigen, gestaffelten Schutzmechanismen auf. Vier-Augen-Prinzip, Rückrufe über bekannte Nummern, Hürden für neue oder geänderte Zahlungsempfänger, Zeitverzögerungen bei hochvolumigen Transaktionen. Jede Ebene sollte unabhängig funktionieren, sodass das Kompromittieren einer Ebene nicht die anderen gefährdet. Übertragen Sie diesen Ansatz auf Data Governance: zugriffsbasierte Kontrollen auf Basis von Klassifizierung, kontinuierliche Verifizierung, umfassende Audit-Trails und Anomalieerkennung.

Aktualisieren Sie Betrugsrisikobewertungen und Präventionsmaßnahmen, um KI-gestützte Methoden abzudecken. Synthetische Medien, Dokumentenfälschung, interner Missbrauch von KI-Tools und Automatisierungs-Bias müssen explizit adressiert werden. Für Unternehmen im Vereinigten Königreich ist dies eine gesetzliche Vorgabe im Rahmen des „Failure to Prevent Fraud“-Delikts. Erweitern Sie die Bewertung auf wichtige Drittparteien und Lieferanten.

Erstellen Sie KI-Governance-Rahmenwerke, die durch operative Audit-Infrastruktur gestützt werden. Richtliniendokumente allein genügen den wachsenden regulatorischen Erwartungen nicht. Unternehmen benötigen umfassende Audit-Trails, die erfassen, auf welche Daten KI-Systeme zugreifen, wann, mit welcher Autorisierung und welche Aktionen erfolgen. Datenklassifizierung muss Zugriffsrichtlinien automatisch durchsetzen. Anomalieerkennung muss unautorisierte Muster melden. Compliance-Berichte müssen exportierbar und regulatorisch belastbar sein.

Proben Sie KI-Incident-Response-Szenarien, bevor Sie sie benötigen. Üben Sie den Umgang mit umstrittener Authentizität – was passiert, wenn Sie nicht feststellen können, ob eine Kommunikation echt ist. Üben Sie schnelle Abschaltentscheidungen – wer hat die Befugnis, KI-Systeme zu pausieren und unter welchen Bedingungen. Üben Sie die Beweissicherung – wie dokumentieren Sie den Vorfall für regulatorische und rechtliche Verfahren. Die Zeit, diese Fragen zu beantworten, ist vor dem Vorfall.

Testen Sie die Verantwortlichkeit in KI-Anbieterverträgen auf Belastbarkeit. Der Bericht hebt Unsicherheiten bei der Haftungsverteilung hervor, da Schäden oft schwer auf bestimmte Designentscheidungen zurückzuführen sind und Verantwortlichkeiten auf mehrere Akteure verteilt sind. Gehen Sie davon aus, dass Abhilfe durch KI-Anbieter langsam oder unmöglich sein kann. Verträge sollten Datenverarbeitungsverpflichtungen, Meldepflichten bei Vorfällen, Audit-Rechte und Kündigungsklauseln klar regeln. Governance-Rahmenwerke sollten die Überwachung von Drittanbieter-KI mit derselben Sorgfalt umfassen wie interne Systeme.

Die Hürde für Betrug ist gefallen. Die Hürde für Compliance nicht.

Der International AI Safety Report 2026 vermittelt eine unbequeme, aber klare Botschaft: General-Purpose-AI senkt die Eintrittsbarriere für Betrug und Täuschung auf ein nie dagewesenes Niveau. Synthetische Inhalte untergraben die vertrauensbasierten Kontrollen, auf die Unternehmen seit Jahrzehnten setzen. Cyber-Operationen werden zur Massenware. Interner Missbrauch wird schwerer zu erkennen. Und aktuelle Schutzmaßnahmen verhindern Schäden nicht zuverlässig.

Gleichzeitig steigen die regulatorischen Erwartungen. Governance-Rahmenwerke müssen dokumentiert sein. Risikobewertungen müssen KI-spezifische Bedrohungen adressieren. Kontrollen müssen getestet und nachgewiesen werden. Die Schnittmenge von KI-Risiken mit Datenschutz, Finanzkriminalität und Unternehmenshaftung bedeutet, dass KI-Governance keine isolierte Übung ist. Sie ist eine Compliance-Pflicht, die alle bestehenden Rahmenwerke des Unternehmens betrifft.

Unternehmen, die diesen Bericht als Signal verstehen – operative Governance-Infrastruktur aufbauen, Defense in Depth umsetzen, Audit-Trails schaffen, die Kontrollen nachweisbar machen, und Incident-Response proben, bevor sie gebraucht wird – können bei regulatorischen Nachfragen ihre Sorgfaltspflicht belegen.

Unternehmen, die ihn als weitere Richtlinienübung behandeln, werden feststellen, dass die Lücke zwischen Governance-Dokumenten und operativer Realität genau der Bereich ist, in dem Durchsetzungsmaßnahmen ansetzen.

Erfahren Sie, wie Kiteworks Sie unterstützen kann, und vereinbaren Sie noch heute eine individuelle Demo.

Häufig gestellte Fragen

Für das Klonen von Stimmen mittels KI genügt eine kurze Audioaufnahme – oft aus öffentlichen Quellen wie Earnings Calls, Konferenzmitschnitten oder LinkedIn-Videos – um eine synthetische Stimme zu erzeugen, die so überzeugend ist, dass laut International AI Safety Report 2026 Zuhörer KI-generierte Stimmen in 80 % der Fälle für echte Sprecher halten. Angreifer nutzen dies, um Führungskräfte, Lieferanten oder Vorstandsmitglieder in Anrufen oder Videokonferenzen zu imitieren und dringende Überweisungen, Änderungen von Lieferantenbankdaten oder Zurücksetzungen von Zugangsdaten zu verlangen. Der Angriff nutzt sowohl das Vertrauensmodell (das Opfer glaubt, die Stimme zu erkennen) als auch das Dringlichkeitsmodell (Geschwindigkeit verhindert Verifizierung). Effektive Abwehrmaßnahmen versuchen nicht, den synthetischen Inhalt zu erkennen – sie gehen davon aus, dass jede nicht verifizierte Kommunikation synthetisch sein könnte. Für risikoreiche Aktionen benötigen Unternehmen eine Out-of-Band-Verifizierung über einen vorab festgelegten Kanal, das Vier-Augen-Prinzip mit unabhängiger Autorisierung und Hürden wie Zeitverzögerungen, Rückrufe an bekannte Nummern oder Step-up-Authentifizierung, die die vom Angriff ausgenutzte Dringlichkeit durchbrechen.

Das „Failure to Prevent Fraud“-Delikt, das seit dem 1. September 2025 für große Unternehmen gilt, führt zu Haftung, wenn eine verbundene Person – Mitarbeiter, Beauftragter, Auftragnehmer oder Tochtergesellschaft – eine bestimmte Betrugshandlung begeht, um das Unternehmen oder dessen Kunden zu begünstigen, und das Unternehmen keine angemessenen Präventionsmaßnahmen hatte. Im KI-Zeitalter müssen „angemessene Präventionsmaßnahmen“ explizit KI-gestützte Methoden adressieren: synthetische Medien zur Fälschung von Führungskräftekommunikation, KI-generierte gefälschte Dokumente zur Unterstützung betrügerischer Transaktionen, massenhafte automatisierte Kommunikation, die Freigabeprozesse überlasten soll, sowie interner Einsatz von KI-Tools zur Verschleierung von Audit-Trails. Eine Betrugsrisikobewertung, die diese Vektoren nicht berücksichtigt – und Trainingsprogramme, die sie nicht abdecken – erfüllen nicht den „angemessenen“ Standard. Unternehmen müssen die Bewertung auch auf Drittparteien ausdehnen, die in ihrem Namen handeln, da die Haftung für verbundene Personen über direkte Mitarbeitende hinausgeht.

Automatisierungs-Bias beschreibt die dokumentierte Tendenz, KI-generierten Ergebnissen ohne ausreichende kritische Prüfung zu folgen – KI-Empfehlungen werden als korrekt akzeptiert, statt sie als einen von mehreren Inputs zu betrachten. In regulierten Umgebungen entsteht dadurch eine spezifische Verantwortlichkeitslücke: Wird eine Entscheidung von einer Aufsichtsbehörde oder einem Geschäftspartner angefochten, muss das Unternehmen nachweisen, dass die Entscheidung auf echter menschlicher Beurteilung beruhte und nicht bloß von der KI abgenickt wurde. Ein Audit-Trail, der nur das KI-Ergebnis und die Endentscheidung dokumentiert – ohne die von der KI genutzten Daten, die menschlichen Prüfschritte und die angewandte Begründung zu erfassen – kann diesen Nachweis nicht erbringen. Nach DSGVO Artikel 22 müssen Entscheidungen mit rechtlichen oder erheblichen Auswirkungen, die auf automatisierter Verarbeitung beruhen, bestimmte Anforderungen einschließlich menschlicher Kontrolle erfüllen. Nach HIPAA und Finanzkriminalitätsvorgaben ist der Nachweis operativer Kontrollen, nicht nur prozeduraler Zusagen, erforderlich. Unternehmen benötigen eine Audit-Infrastruktur, die die gesamte Entscheidungskette dokumentiert – welche Daten die KI genutzt hat, welches Ergebnis sie produziert hat, welche menschliche Prüfung erfolgte und welche Aktion daraus resultierte –, um die durch Automatisierungs-Bias entstehende Lücke zu schließen.

KI-Systeme, die personenbezogene Daten verarbeiten, unterliegen mindestens vier DSGVO-Pflichten, die direkte Anforderungen an Audit-Trails stellen. Artikel 22 verlangt, dass Entscheidungen, die ausschließlich auf automatisierter Verarbeitung mit erheblichen Auswirkungen beruhen, menschliche Kontrolle beinhalten – mit Dokumentation, dass diese Kontrolle tatsächlich erfolgte. Artikel 28 verlangt Auftragsverarbeitungsverträge mit KI-Anbietern, die Verarbeitungszwecke, Sicherheitsanforderungen und Subunternehmerkontrollen regeln – der Audit-Trail muss belegen, dass diese Vorgaben in der Praxis eingehalten werden. Artikel 30 verlangt Verzeichnisse von Verarbeitungstätigkeiten, die dokumentieren, auf welche personenbezogenen Daten KI-Systeme zugreifen, zu welchem Zweck und wie lange sie gespeichert werden. Die Artikel 44 bis 50 regeln internationale Datenübermittlungen und verlangen den Nachweis, dass personenbezogene Daten, die von KI-Systemen verarbeitet werden, nicht in Länder ohne angemessenen Schutz fließen. Für risikoreiche KI-Verarbeitung ist eine Datenschutz-Folgenabschätzung erforderlich. Zusammengenommen verlangen diese Pflichten eine Audit-Infrastruktur, die protokolliert, auf welche personenbezogenen Daten jedes KI-System wann, mit welcher Autorisierung und wohin zugreift – nicht nur, welche Entscheidungen die KI getroffen hat.

Der International AI Safety Report 2026 hebt ein strukturelles Verantwortlichkeitsproblem hervor: KI-Schäden lassen sich oft schwer auf bestimmte Designentscheidungen zurückführen, und die Verantwortung verteilt sich auf Entwickler, Betreiber und Anwender. Das schafft vertragliche Risiken für Unternehmen, die davon ausgehen, dass Abhilfe durch den Anbieter verfügbar, zeitnah und ausreichend ist. KI-Anbieterverträge sollten laut Bericht vier wesentliche Punkte regeln. Erstens, Datenverarbeitungsverpflichtungen: Welche Daten darf die KI zu welchem Zweck und unter welchen Sicherheitskontrollen nutzen und dürfen sie zur Schulung nachgelagerter Modelle verwendet werden? Zweitens, Meldepflichten bei Vorfällen: Konkrete Fristen und Eskalationswege, wenn das KI-System Daten außerhalb der genehmigten Grenzen verarbeitet oder Outputs erzeugt, die rechtliche Risiken schaffen. Drittens, Audit-Rechte: Das Recht des Unternehmens, Protokolle darüber einzusehen, auf welche Daten die KI zugegriffen und welche Aktionen sie vorgenommen hat – ohne diese Nachweise lässt sich Compliance mit DSGVO, HIPAA und Finanzkriminalitätsvorgaben nicht belegen. Viertens, Kündigungsklauseln: Definierte Bedingungen – regulatorische Nichteinhaltung, Sicherheitsvorfälle, Abweichungen im Modellverhalten –, unter denen das Unternehmen den Vertrag ohne Strafe beenden kann. Third-Party-Risk-Management-Rahmenwerke, die für klassische Anbieter gelten, müssen mit derselben Sorgfalt auf KI-Systeme ausgedehnt werden.

Weitere Ressourcen

  • Blog Post Zero Trust Architecture: Never Trust, Always Verify
  • Video Microsoft GCC High: Nachteile, die Verteidigungsunternehmen zu intelligenteren Lösungen treiben
  • Blog Post Wie Sie klassifizierte Daten schützen, nachdem DSPM sie erkannt hat
  • Blog Post Vertrauen in Generative KI mit einem Zero Trust-Ansatz aufbauen
  • Video Der definitive Leitfaden für die sichere Speicherung sensibler Daten für IT-Leiter

Jetzt loslegen.

Es ist einfach, mit Kiteworks die gesetzliche Vorgaben einzuhalten und Risiken effektiv zu managen. Schließen Sie sich den Tausenden von Unternehmen an, die sicher sind, wie sie vertrauliche Daten zwischen Personen, Maschinen und Systemen austauschen. Beginnen Sie noch heute.

Table of Content
Teilen
Twittern
Teilen
Explore Kiteworks