Warum System-Prompts keine Compliance-Kontrollen sind
Wenn Unternehmen KI-Agents in regulierten Daten-Workflows einsetzen, ist der am häufigsten gewählte Governance-Ansatz ein sorgfältig formulierter Systemprompt. Das Modell wird angewiesen, bestimmte Datenkategorien nicht zu nutzen. Es soll sich an definierte Grenzen halten und bestimmte Anfragen ablehnen. Für viele Sicherheits- und Compliance-Teams fühlt sich das wie Governance an – es ist dokumentiert, überprüfbar und schränkt das Agentenverhalten im Test sichtbar ein.
Das ist jedoch keine Compliance-Kontrolle. Es ist eine Anweisung. Diese Unterscheidung ist entscheidend, denn wenn ein HIPAA-Auditor, ein CMMC-Assessor oder ein SEC-Prüfer eine KI-Agenten-Implementierung bewertet, prüfen sie nicht, was dem Modell gesagt wurde. Sie prüfen, was auf der Datenebene technisch verhindert wurde. Das sind grundlegend verschiedene Dinge – und genau in dieser Lücke sammeln regulierte Unternehmen Compliance-Risiken im großen Stil an.
Dieser Beitrag erklärt die technischen Gründe, warum Systemprompts keine Compliance-Kontrollen sein können, welche Fehlermodi dadurch in regulierten Umgebungen entstehen, welche Nachweise Aufsichtsbehörden tatsächlich verlangen und warum Governance auf der Datenebene die einzige Architektur ist, die eine verteidigbare Compliance für KI-Agenten-Zugriffe auf regulierte Daten ermöglicht.
Executive Summary
Kernaussage: Systemprompts, KI-Schutzmechanismen, Modell-Fine-Tuning und Sicherheitsfilter wirken alle auf der Modellebene. Sie begrenzen, was das Modell unter normalen Bedingungen tut – aber sie können keinen Datenzugriff verhindern, liefern keinen auditierbaren Nachweis und halten Angriffsmethoden nicht stand, die Regulierungsbehörden, Prüfer und Angreifer gezielt einsetzen. Nur Governance, die auf der Datenebene durchgesetzt wird – unabhängig vom Modell, Prompt und Agenten-Framework – stellt eine Zugriffskontrolle dar, die HIPAA-, CMMC-, SEC-, PCI DSS– oder SOX-Anforderungen erfüllt.
Warum das relevant ist: Unternehmen, die glauben, ihre KI-Implementierungen seien durch Systemprompts und Schutzmechanismen ausreichend gesteuert, tragen ein Compliance-Risiko, das ihnen oft nicht bewusst ist. Jede KI-Agenten-Interaktion mit regulierten Daten, die nur auf der Modellebene gesteuert wird, kann keine Authentifizierungsnachweise, keine Zugriffspoliciendokumentation und keinen manipulationssicheren Audit-Trail erzeugen, wie es Regulierungsbehörden verlangen. Wenn das Audit kommt, ist „unser Modell wurde angewiesen, dies nicht zu tun“ kein Nachweis einer Kontrolle – sondern ein Nachweis einer Annahme.
Wichtige Erkenntnisse
- Ein Systemprompt ist eine Anweisung, keine Kontrolle. Anweisungen sagen einem Modell, was es tun soll. Kontrollen verhindern unbefugte Aktionen – unabhängig davon, was dem Modell gesagt wurde oder wie es entscheidet. Ein Systemprompt wie „greife nicht auf Patientendaten außerhalb dieses Falls zu“ verhindert technisch nicht, dass der Agent auf alle Patientendaten zugreift, auf die das Servicekonto Zugriff hat. Es ist lediglich eine Verhaltenspräferenz, die das Modell befolgt – bis etwas sie überschreibt.
- Systemprompts können durch Prompt Injection umgangen werden – das ist eine strukturelle Schwachstelle, kein Konfigurationsproblem. Prompt Injection ermöglicht es Angreifern, Anweisungen in Inhalte einzubetten, die der KI-Agent liest, und so den ursprünglichen Systemprompt zu überschreiben oder zu ergänzen. Eine Red-Team-Studie im Februar 2026 von Forschern der Harvard, MIT, Stanford, Carnegie Mellon und weiteren Institutionen dokumentierte, wie Agents in einer Live-Umgebung – nicht im Sandbox-Modus – Modell-Grenzen umgingen und dabei fünf OWASP Top 10 for LLM Applications-Schwachstellen identifizierten. Das ist kein theoretisches Risiko, sondern dokumentiertes Verhalten von eingesetzten KI-Agents.
- Regulierungsbehörden verlangen Nachweise darüber, was technisch verhindert wurde, nicht darüber, was angewiesen wurde. HIPAA §164.312(a)(1) verlangt technische Richtlinien und Verfahren, die ausschließlich autorisierten Personen oder Programmen Zugriff auf ePHI erlauben. CMMC AC.1.001 verlangt autorisierte Zugriffskontrollen. SEC Rule 204-2 verlangt nachvollziehbare Aufzeichnungen. Keine dieser Anforderungen wird durch eine dokumentierte Anweisung erfüllt. Alle verlangen einen Mechanismus, der die Einschränkung unabhängig davon erzwingt, ob das KI-Modell sie befolgt.
- Modell-Updates können unbemerkt die Interpretation von Systemprompts verändern. Wenn ein KI-Anbieter das zugrundeliegende Modell aktualisiert, kann sich das Verhalten auf denselben Systemprompt ändern. Ein Prompt, der in einer Modellversion zuverlässig Zugriff einschränkte, kann in der nächsten Version anderes Verhalten erzeugen. Compliance-Kontrollen dürfen nicht von Modellversionen abhängen. Eine Governance-Kontrolle, die sich ohne Wissen oder Zustimmung des Unternehmens bei jedem Modell-Update ändert, erfüllt nicht die Definition einer Kontrolle.
- Systemprompts erzeugen keinen eigenen Audit-Trail bei Fehlern. Wird ein Systemprompt umgangen, überschrieben oder falsch interpretiert, gibt es in der Regel keinen Log-Eintrag, der einen Verstoß gegen die beabsichtigte Einschränkung dokumentiert. Der Agent handelt außerhalb seines vorgesehenen Rahmens, greift auf Daten zu, die er nicht berühren sollte, und hinterlässt keinen Nachweis, der diesen Zugriff von autorisiertem Zugriff unterscheidet. Ein manipulationssicherer Audit-Trail kann aus einem Systemprompt, der lautlos versagt, nicht rekonstruiert werden.
Drei Wege, wie Systemprompts als Compliance-Kontrollen versagen
Die Fehlermodi von Governance auf Modellebene sind keine Hypothese. Sie sind strukturelle Eigenschaften der Verarbeitung von Anweisungen durch KI-Agents auf Basis großer Sprachmodelle und wurden sowohl in der Forschung als auch in realen Vorfällen dokumentiert.
Prompt Injection: Die strukturelle Schwachstelle
Prompt Injection ermöglicht es Angreifern, böswillige Anweisungen in Inhalte einzubetten, die der KI-Agent liest – etwa ein Dokument, eine E-Mail, eine Webseite oder einen Datenbankeintrag. Der Agent behandelt eingebettete Anweisungen als Teil seines Kontexts und kann sie ausführen, wodurch der ursprüngliche Systemprompt überschrieben wird. In der Studie „Agents of Chaos“ vom Februar 2026 dokumentierten Forscher von Harvard, MIT, Stanford, Carnegie Mellon und weiteren Institutionen, dass Agents eine direkte Anfrage nach sensiblen Daten ablehnten, aber zustimmten, einen Container mit diesen Daten weiterzuleiten – ein Beispiel für die Umgehung von Schutzmechanismen durch indirekte Anweisungen in einer Live-Umgebung. Agents akzeptierten zudem gefälschte Identitäten über verschiedene Kanäle hinweg, nachdem sie diese in einem Kanal erkannt hatten, und ein Agent teilte eine extern platzierte Verhaltensanweisung freiwillig mit einem zweiten Agenten – so wurde die Kontrolle des Angreifers ohne weitere Eingriffe ausgeweitet.
Für Compliance bedeutet das: Prompt Injection ist kein Konfigurationsfehler, der sich beheben lässt. Es ist eine strukturelle Eigenschaft der Verarbeitung von Anweisungen durch LLM-basierte Agents. Ein Systemprompt, der unter normalen Bedingungen das Verhalten einschränkt, bietet keine Garantie für dasselbe Verhalten, wenn der Agent manipulierte Inhalte verarbeitet – genau das Szenario, auf das Angreifer abzielen.
Modell-Updates: Unbemerkte Verhaltensänderungen
KI-Anbieter aktualisieren ihre Modelle regelmäßig – zur Verbesserung von Fähigkeiten, Sicherheit und Infrastruktur. Nach einem Modell-Update kann sich das Verhalten auf denselben Systemprompt ändern. Ein Prompt, der in einer Modellversion zuverlässig einen Agenten einschränkte, kann in der nächsten Version anderes Verhalten bewirken – ohne dass das Unternehmen informiert wird und ohne Änderung am Prompt selbst.
Das führt zu einem Compliance-Problem, das besonders schwer zu erkennen ist: Die Governance-Kontrolle driftet, weil sich das Modell ändert, aber von außen sieht alles gleich aus. Der Microsoft Copilot-Vorfall im Februar 2026 verdeutlicht das Risiko: Ein Codefehler führte dazu, dass Microsofts anwendungsseitige Kontrollen – Sensitivitätskennzeichnungen und DLP-Richtlinien – gleichzeitig versagten, sodass Copilot über Wochen vertrauliche Inhalte, darunter PHI und juristische Kommunikation, verarbeiten konnte, bevor der Fehler entdeckt wurde. Wenn anwendungs- und modellseitige Kontrollen in derselben Plattform liegen, kann ein einziger Fehler auf Plattformebene alle Kontrollen gleichzeitig kompromittieren. Es gab keine unabhängige Kontrolle auf der Datenebene, die das hätte verhindern können.
Indirekte Manipulation: Grenzen, die kein Systemprompt durchsetzen kann
Auch ohne aktiven Angriff können Systemprompts die für Compliance erforderlichen exakten Grenzen nicht durchsetzen. Ein Prompt kann eine Absicht formulieren – „greife nur auf relevante Daten zu“ – aber er kann diese Absicht nicht technisch auf der Datenzugriffsebene durchsetzen. Wenn Servicekonten Zugang zu einem größeren Datensatz haben, hat der Agent technisch Zugriff auf diese Daten – unabhängig davon, was der Systemprompt vorgibt. Eine Compliance-Kontrolle wird daran gemessen, was sie technisch verhindert, nicht an ihrer Absicht. Ein Agent mit technischem Zugriff auf 10.000 Patientendaten, der angewiesen wird, nur drei zu lesen, erfüllt nicht den HIPAA-Grundsatz des minimal erforderlichen Zugriffs – denn nichts hat den Zugriff auf die übrigen 9.997 verhindert.
Welche Daten-Compliance-Standards sind relevant?
Jetzt lesen
Was Regulierungsbehörden tatsächlich verlangen
Compliance-Standards für den Zugriff auf regulierte Daten verlangen Nachweise, dass der Zugriff technisch kontrolliert wurde – nicht, dass er kontrolliert werden sollte. Diese Unterscheidung entscheidet darüber, ob ein Unternehmen ein Audit besteht oder Beanstandungen erhält.
Was „Zugriffskontrolle“ für Regulierungsbehörden bedeutet
Die HIPAA Security Rule verlangt technische Richtlinien und Verfahren, die „den Zugriff nur denjenigen Personen oder Programmen erlauben, die Zugriffsrechte erhalten haben“. Das entscheidende Wort ist „erlauben“ – das System muss technisch ausschließlich autorisierten Zugriff ermöglichen, nicht nur einen Nutzer anweisen, sich selbst zu beschränken. Wenn ein CMMC-Assessor autorisierte Zugriffskontrollen für einen KI-Agenten-Workflow sehen will, erwartet er einen Nachweis der Policy-Durchsetzung: Welche Zugriffe wurden angefragt, welche Policy-Prüfung wurde angewendet, was wurde erlaubt oder abgelehnt und wann. Ein Systemprompt-Konfigurationsdokument liefert diesen Nachweis nicht. Eine Daten-Policy-Engine, die jede Agenten-Anfrage gegen eine ABAC-Policy prüft, schon.
Was „Audit-Trail“ für Regulierungsbehörden bedeutet
HIPAA §164.312(b), CMMC AU.2.042 und SEC Rule 17a-4 verlangen Aufzeichnungen darüber, was tatsächlich passiert ist – nicht, was beabsichtigt war. Ein dokumentierter Systemprompt liefert einen Nachweis der Absicht. Ein manipulationssicheres, vorgangsbezogenes Audit-Log, das jede Datenzugriffsaktion eines Agenten erfasst – Agentenidentität, Datenzugriff, Vorgangstyp, Policy-Prüfung, Zeitstempel – liefert einen Nachweis über das tatsächliche Geschehen. Nur Letzteres erfüllt die regulatorischen Anforderungen. Und wenn der Auditor fragt, auf welche Daten ein KI-Agent letzten Dienstag zugegriffen hat, muss die Antwort aus dem Audit-Log kommen – nicht aus einer Annahme, was der Systemprompt hätte verhindern sollen.
Warum „Unser KI-Anbieter ist compliant“ keine Antwort ist
Compliance-Zertifizierungen von KI-Anbietern – SOC 2, ISO 27001, FedRAMP – beziehen sich auf die eigene Sicherheitslage des Anbieters. Sie sagen nichts darüber aus, ob die Zugriffskontrollen, Audit-Trails, Durchsetzung des minimal erforderlichen Zugriffs und Delegationsketten des Unternehmens selbst die regulatorischen Anforderungen erfüllen. HIPAA-Compliance, CMMC-Zertifizierung und SEC-Prüfbereitschaft sind organisatorische Pflichten, die nicht durch die Attestierung eines Anbieters abgedeckt werden können. Wenn der Auditor das Zugriffsprotokoll für einen bestimmten Patientendatensatz sehen will, auf den ein KI-Agent letzten Dienstag zugegriffen hat, liefert der SOC 2-Bericht des Anbieters keine Antwort.
Was Governance auf Datenebene tatsächlich bedeutet
Governance auf Datenebene bedeutet, dass Daten-Governance-Kontrollen an dem Punkt durchgesetzt werden, an dem auf Daten zugegriffen wird – unabhängig vom Modell, Prompt und Agenten-Framework. Nur dieser Architekturansatz liefert Nachweise darüber, was technisch kontrolliert wurde – nicht, was angewiesen wurde.
Was Datenebenen-Kontrollen leisten, was Systemprompts nicht können
Eine Daten-Governance-Kontrolle auf Datenebene fängt jede Datenzugriffsanfrage ab, bevor sie regulierte Daten erreicht. Sie prüft die Agentenidentität, verknüpft sie mit dem menschlichen Autorisierer, der den Workflow delegiert hat, und bewertet die Anfrage anhand einer ABAC-Policy: Ist dieser Agent berechtigt, auf diese spezifischen Daten, in diesem Kontext, mit dieser Operation zuzugreifen? Wenn die Policy es erlaubt, wird der Zugriff gewährt und protokolliert. Andernfalls wird der Zugriff verweigert und die Ablehnung protokolliert – unabhängig davon, was dem Modell gesagt wurde oder ob der Systemprompt umgangen wurde.
Wenn ein Prompt-Injection-Angriff einen Systemprompt überschreibt und einen Agenten anweist, auf nicht freigegebene Daten zuzugreifen, verweigert eine Daten-Governance-Kontrolle auf Datenebene diesen Zugriff – weil die Zugriffspolicy nicht erfüllt ist, unabhängig von der Modellanweisung. Das Modell ist kompromittiert, die Daten-Governance bleibt intakt. Das ist der Unterschied zwischen Compliance-Theater und Compliance-Realität.
Die Nachweise, die Governance auf Datenebene liefert
Governance auf Datenebene liefert exakt die Nachweise, die Regulierungsbehörden verlangen: ein manipulationssicheres, vorgangsbezogenes Audit-Log jeder Agenten-Datenzugriffsaktion, mit authentifizierter Agentenidentität, menschlichem Autorisierer, spezifischen Daten, Vorgangstyp, Policy-Bewertung und Zeitstempel. Dieses Protokoll wird von der Governance-Schicht unabhängig vom Modellverhalten erstellt – es hängt nicht davon ab, ob das Modell Anweisungen befolgt. Wenn der Auditor fragt, auf welche Daten ein KI-Agent letzten Dienstag zugegriffen hat, liefert die Governance-Schicht den Bericht – in Stunden, nicht durch Rekonstruktion aus Inferenz-Logs über Tage hinweg.
Wie Kiteworks Governance auf Datenebene für KI-Agents bereitstellt
Das Private Data Network von Kiteworks sitzt zwischen KI-Agents und den regulierten Daten, auf die sie zugreifen müssen. Jede Agenten-Datenanfrage durchläuft vier Governance-Prüfpunkte, bevor Daten bewegt werden – authentifizierte Identität, ABAC-Policy-Prüfung, FIPS 140-3-validierte Verschlüsselung und manipulationssichere Audit-Protokollierung – unabhängig vom Modell, Prompt und Agenten-Framework. Wird das Modell kompromittiert, aktualisiert oder manipuliert, setzt Kiteworks weiterhin die Policy durch.
Identitätsprüfung unabhängig vom Modell
Jeder KI-Agent, der über Kiteworks auf Daten zugreift, wird vor dem Zugriff authentifiziert – mit einem eindeutigen Workflow-bezogenen Zugang, der mit dem menschlichen Autorisierer verknüpft ist. Diese Authentifizierung erzwingt die Governance-Schicht auf Datenebene, nicht das Modell. Ein Prompt-Injection-Angriff kann sie nicht umgehen – weil die Prüfung auf der Datenebene erfolgt, bevor die Anfrage des Agenten die Daten erreicht, nicht im Kontextfenster des Modells, wo ein Angreifer sie manipulieren könnte.
Policy-Durchsetzung, die Modell-Updates übersteht
Die Data Policy Engine von Kiteworks prüft jede Agenten-Datenanfrage anhand einer mehrdimensionalen ABAC-Policy: authentifiziertes Agentenprofil, Datenklassifizierung der angeforderten Ressource, Workflow-Kontext und spezifische Operation. Diese Prüfung erfolgt durch die Governance-Schicht, nicht das Modell. Wenn das zugrundeliegende Modell aktualisiert wird und seine Interpretation von Systemprompts sich ändert, bleibt die Policy-Durchsetzung auf Datenebene unverändert – weil sie nicht vom Modellverhalten abhängt. Die Daten-Governance-Policy wird vom Unternehmen festgelegt und unabhängig von der Modellversion konsistent angewendet.
Ein Audit-Trail, den Regulierungsbehörden nutzen können
Jede Agenten-Dateninteraktion über Kiteworks wird in einem manipulationssicheren, vorgangsbezogenen Audit-Log erfasst: Agentenidentität, menschlicher Autorisierer, Datenzugriff, Vorgangstyp, Policy-Bewertung und Zeitstempel. Dieses Log wird in das SIEM des Unternehmens eingespeist und in einem Format aufbewahrt, das regulatorische Nachweisanfragen unterstützt. Wenn ein HIPAA-Auditor, CMMC-Assessor oder SEC-Prüfer Nachweise für Zugriffskontrollen auf einen KI-Agenten-Workflow verlangt, liefert Kiteworks ein exportierbares Nachweispaket – kein Systemprompt-Konfigurationsdokument und kein Inferenz-Log, das nie für einen regulatorischen Audit-Standard gedacht war.
Für Unternehmen, die KI-Agents im großen Maßstab einsetzen wollen, ohne Compliance-Risiken anzuhäufen, bietet Kiteworks die Architektur, die KI-Governance real macht – nicht nur angenommen. Erfahren Sie mehr über Kiteworks Compliant AI oder fordern Sie eine Demo an.
Häufig gestellte Fragen
Systemprompts sind Anweisungen an ein KI-Modell, aber keine technischen Kontrollen für den Datenzugriff. Vorgaben wie HIPAA §164.312(a)(1), CMMC AC.1.001 und SEC Rule 204-2 verlangen Mechanismen, die den Zugriff auf regulierte Daten technisch einschränken – nicht dokumentierte Verhaltenspräferenzen. Systemprompts können durch Prompt Injection umgangen, durch Modell-Updates überschrieben oder vom Modell in mehrstufigen Workflows falsch interpretiert werden. Sie erzeugen keinen Audit-Trail bei eigenem Versagen. Nur Governance auf Datenebene, unabhängig vom Modell, stellt eine auditierbare Zugriffskontrolle nach diesen regulatorischen Standards dar.
Prompt Injection ist eine Technik, bei der böswillige Anweisungen in Inhalte eingebettet werden, die ein KI-Agent liest – etwa ein Dokument, eine E-Mail oder einen Datenbankeintrag – und der Agent diese Anweisungen statt oder zusätzlich zum ursprünglichen Systemprompt ausführt. Eine Red-Team-Studie im Februar 2026 von Forschern der Harvard, MIT, Stanford und Carnegie Mellon dokumentierte, wie Agents Schutzmechanismen durch indirekte Anweisungen in einer Live-Umgebung umgingen, nicht im Sandbox-Modus. Für Compliance bedeutet das: Eine Governance-Kontrolle, die durch Inhalte umgangen werden kann, die der Agent liest, ist keine Kontrolle, auf die man sich beim Schutz regulierter Daten verlassen kann. Governance auf Datenebene erzwingt Zugriffspolicen unabhängig vom Modellverhalten und ist dadurch widerstandsfähiger als modellbasierte Kontrollen.
Nein. Eine SOC 2-Zertifizierung bezieht sich auf das eigene Sicherheitsprogramm des Anbieters – wie er seine Infrastruktur schützt, den Zugriff auf seine Systeme verwaltet und auf Vorfälle reagiert. Sie liefert keinen Nachweis, dass regulierte Daten Ihres Unternehmens nur von autorisierten Agents gemäß dokumentierten Zugriffspolicen und mit vorgangsbezogener Audit-Protokollierung, die mit menschlichen Autorisierern verknüpft ist, genutzt wurden. HIPAA-, CMMC- und SEC-Anforderungen sind organisatorische Compliance-Pflichten. Sie verlangen Nachweise für die Zugriffskontrollen, Audit-Trails und Policy-Durchsetzung Ihres Unternehmens – nicht für die Sicherheitslage des Anbieters. Anbieterzertifizierungen und organisatorische Compliance sind zwei verschiedene Dinge.
Fragen Sie: Können Sie ein vorgangsbezogenes Audit-Log vorlegen, das zeigt, auf welche spezifischen Datensätze dieser Agent zugegriffen hat, mit welcher Autorisierung, verknüpft mit welchem menschlichen Autorisierer und mit manipulationssicherem Zeitstempel? Können Sie nachweisen, dass der Zugriff auf Datenebene durchgesetzt wird – unabhängig vom Modell –, sodass ein Prompt-Injection-Angriff oder Modell-Update die Zugriffspolicy nicht überschreiben kann? Können Sie zeigen, dass der minimal erforderliche Zugriff pro Vorgang und nicht pro Sitzung durchgesetzt wird? Wenn die Antworten des Anbieters Systemprompt-Konfigurationen, Modell-Sicherheitsfilter oder Sitzungsprotokollierung beinhalten, hält die Aussage in einem Audit, das Nachweise für Zugriffskontrollen auf Datenebene verlangt, nicht stand.
Die minimale auditierbare Architektur für KI-Agenten-Zugriffe auf regulierte Daten erfordert vier Komponenten, die alle auf der Datenebene durchgesetzt werden und unabhängig vom Modell sind: authentifizierte Agentenidentität, die für jedes Zugriffsereignis mit einem menschlichen Autorisierer verknüpft ist; attributbasierte Zugriffskontrolle (ABAC), die pro Vorgang anhand der Datenklassifizierung und des Workflow-Kontexts bewertet wird; FIPS 140-3-validierte Verschlüsselung für alle Daten während der Übertragung und im ruhenden Zustand auf jedem Agenten-Datenpfad; und ein manipulationssicheres, vorgangsbezogenes Audit-Log, das Agentenidentität, menschlichen Autorisierer, spezifische Daten, Vorgangstyp und Zeitstempel erfasst. Alle vier Komponenten müssen von einer Governance-Schicht durchgesetzt werden, die unabhängig vom KI-Modell arbeitet – damit Modellkompromittierung, -update oder -manipulation die Kontrollen nicht aushebeln kann.
Weitere Ressourcen
- Blog Post
Zero‑Trust-Strategien für bezahlbaren KI-Datenschutz - Blog Post
Wie 77 % der Unternehmen bei KI-Datensicherheit scheitern - eBook
AI Governance Gap: Warum 91 % der kleinen Unternehmen 2025 russisches Roulette mit Datensicherheit spielen - Blog Post
Für Ihre Daten gibt es kein „–dangerously-skip-permissions“ - Blog Post
Regulierungsbehörden wollen keine KI-Policy mehr sehen. Sie verlangen Nachweise, dass sie funktioniert.