DC verpflichtet alle Regierungsmitarbeitenden zu verantwortungsbewusster KI-Schulung. Warum das notwendig ist – und warum es nicht ausreicht.
DC verdient Anerkennung. Während die meisten Städte noch darüber diskutieren, ob sie überhaupt eine KI-Richtlinie benötigen, hat Washington soeben alle Regierungsangestellten und Auftragnehmer verpflichtet, ein Training zu verantwortungsbewusstem KI-Einsatz zu absolvieren – ohne Ausnahmen.
Die Ankündigung des Office of the Chief Technology Officer von DC macht den District zur ersten großen US-Stadt, die KI-spezifisches Training für die gesamte Belegschaft vorschreibt. Das selbstgesteuerte Programm, bereitgestellt über InnovateUS, behandelt den praktischen KI-Einsatz in der Verwaltung, Datenschutzaspekte, Deepfake-Risiken und ethische Überlegungen bei der Integration von KI in öffentliche Dienste. Mitarbeitende und Auftragnehmer müssen das Training innerhalb von 90 Tagen abschließen (GovTech).
DCs CTO Stephen Miller bringt es auf den Punkt: „KI wird Teil des Arbeitsalltags, und Beschäftigte im öffentlichen Dienst verdienen praxisnahe Orientierung, um diese Tools verantwortungsvoll zu nutzen.“ Das Training baut auf der Executive Order von Bürgermeisterin Bowser aus dem Jahr 2024 auf, die einen Governance-Rahmen für den KI-Einsatz in der Stadtverwaltung etabliert – geleitet von sechs Werten: Nutzen, Sicherheit, Verantwortlichkeit, Transparenz, Nachhaltigkeit und Datenschutz (Technical.ly).
Das ist genau der richtige Schritt. Doch es wird nicht ausreichen, um zu verhindern, dass Regierungsdaten in nicht autorisierte KI-Systeme gelangen.
Das ist keine Kritik am Ansatz von DC. Es ist die Realität menschlichen Verhaltens unter Druck – und wie KI-Agenten ohne Governance agieren.
5 wichtige Erkenntnisse
- DC ist die erste große US-Stadt, die verantwortungsvolles KI-Training für alle Regierungsmitarbeitenden vorschreibt. Washington, DC hat verpflichtendes KI-Training für die gesamte Belegschaft – sowohl Mitarbeitende als auch Auftragnehmer – angekündigt und ist damit die erste große US-Stadt mit einer solchen Vorgabe. Das selbstgesteuerte Training über InnovateUS behandelt ethische, datenschutzrechtliche und sicherheitsrelevante Aspekte beim Einsatz von KI in der Verwaltung, einschließlich der Erhebung, Verarbeitung und des Schutzes von Daten bei der Integration von KI in Arbeitsabläufe.
- Training ist ein entscheidender erster Schritt – aber 98 % der Unternehmen haben trotz Richtlinien Schatten-KI. Studien zeigen: In 98 % der Unternehmen nutzen Mitarbeitende nicht genehmigte Anwendungen, im Schnitt 1.200 inoffizielle Apps pro Unternehmen. Durchschnittlich verzeichnet ein Unternehmen 223 KI-bezogene Verstöße gegen Datenrichtlinien pro Monat. Training vermittelt, was Beschäftigte tun sollten. Es verhindert jedoch nicht, dass sie unter Zeitdruck das Gegenteil tun, wenn genehmigte Tools fehlen.
- Regierungsdaten sind KI-Risiken ausgesetzt, die Training nicht adressieren kann. Mitarbeitende im öffentlichen Dienst verarbeiten personenbezogene Daten von Bürgern, Polizeidaten, politische Beratungen, Beschaffungsinformationen und sensible Kommunikation zwischen Behörden. Gelangen diese Daten in nicht autorisierte KI-Tools – sei es durch gut gemeinte Eile eines Mitarbeitenden oder durch einen KI-Agenten mit zu vielen Berechtigungen – ist die Offenlegung nicht mehr rückgängig zu machen. Sobald Daten in das Trainingsset eines öffentlichen Modells gelangen, können sie nicht mehr zurückgeholt, gelöscht oder kontrolliert werden.
- KI-Agenten erhöhen das Risiko über das hinaus, was jedes Trainingsprogramm abdecken kann. Mit dem Einsatz von KI-Agenten – autonomen Systemen, die eigenständig Entscheidungen treffen, handeln und auf Unternehmensressourcen zugreifen – vervielfachen sich die Risiken jenseits dessen, was Training abdecken kann. KI-Agenten lassen sich durch versteckte Anweisungen in Dokumenten und Bildern manipulieren, um sensible Daten ohne jegliche Nutzerinteraktion zu exfiltrieren. Ein geschulter Mitarbeitender kann einen Angriff, den er nicht bemerkt, nicht verhindern.
- Effektive KI-Governance braucht fünf Ebenen: Schulung, Richtlinie, technische Kontrollen, Monitoring und Audit. Die Vorgabe von DC deckt die ersten beiden Ebenen ab – Schulung und Richtlinie. Die übrigen drei – technische Kontrollen zur Verhinderung von Richtlinienverstößen, Monitoring zur Erkennung von Anomalien und Audit-Trails zum Nachweis der Compliance – erfordern Infrastruktur, kein Curriculum. Organisationen, die Training mit technischer Durchsetzung kombinieren, senken nicht nur das Risiko. Sie machen das Training wirksam.
Das Trainingsparadox: Mitarbeitende kennen die Regeln – und brechen sie trotzdem
Jede CISO kennt die unbequeme Wahrheit über Sicherheitsschulungen: Bewusstsein bedeutet nicht Compliance. Mitarbeitende können ein Trainingsmodul morgens mit voller Punktzahl bestehen und nachmittags sensible Daten in ein nicht autorisiertes KI-Tool hochladen – nicht aus böser Absicht, sondern weil sie Menschen sind. Sie stehen unter Zeitdruck. Das genehmigte Tool ist langsam oder nicht verfügbar. Das Dokument muss bis morgen zusammengefasst werden. Und ChatGPT ist nur einen Tab entfernt.
Die Daten bestätigen dieses Muster im großen Maßstab. 98 % der Unternehmen haben Mitarbeitende, die nicht genehmigte Anwendungen nutzen – im Schnitt 1.200 inoffizielle Apps pro Unternehmen (Varonis 2025 State of Data Security Report). Durchschnittlich gibt es 223 KI-bezogene Verstöße gegen Datenrichtlinien pro Monat. Über 27 % der Unternehmen geben zu, dass mehr als 30 % der an KI-Tools gesendeten Informationen vertrauliche Daten enthalten. Und nur 17 % der Unternehmen verfügen über technische Kontrollen, die tatsächlich den Zugriff auf öffentliche KI-Tools in Kombination mit DLP-Scanning blockieren.
Der Trainingseffekt nimmt zudem schnell ab. Ohne Wiederholung sinkt die Informationsbehaltung innerhalb von 30 bis 90 Tagen deutlich. Das 90-Tage-Fenster von DC sorgt dafür, dass die Mitarbeitenden das Material einmal durcharbeiten. Die Frage ist, was an Tag 91 passiert – und an jedem Tag danach –, wenn das Wissen verblasst, der Zeitdruck aber bleibt.
Stellen Sie sich das Szenario vor: Ein Mitarbeitender der DC-Regierung hat das KI-Training abgeschlossen. Er kennt die Risiken. Er weiß, dass er nur genehmigte Tools nutzen darf. Aber er muss ein 500-seitiges Richtliniendokument für eine Stadtratssitzung zusammenfassen. Das genehmigte KI-Tool ist langsam. Er lädt das Dokument „nur dieses eine Mal“ bei einem öffentlichen KI-Dienst hoch. Das Dokument enthält personenbezogene Daten von Bürgern, interne Beratungen oder sensible Vorschläge. Die Daten landen in einem öffentlichen System, werden womöglich für das Training von Modellen genutzt und entziehen sich dauerhaft der Kontrolle der Verwaltung.
Das Training hat davor gewarnt. Nichts hat es verhindert.
Sie vertrauen auf die Sicherheit Ihres Unternehmens. Aber können Sie es auch belegen?
Jetzt lesen
Regierungsdaten sind Risiken ausgesetzt, die die Privatwirtschaft nicht kennt
Lädt ein Mitarbeitender eines privaten Unternehmens interne Daten in ein nicht autorisiertes KI-Tool hoch, droht ein Datenschutzverstoß. Tut dies ein Regierungsmitarbeiter, zahlt die Öffentlichkeit den Preis.
Behörden verarbeiten Daten mit besonderer Sensibilität und besonderen Verpflichtungen. Personenbezogene Daten von Bürgern – Sozialversicherungsnummern, Gesundheitsdaten, Steuerinformationen – werden auf gesetzlicher Grundlage erhoben und unterliegen dem impliziten Versprechen des Schutzes. Polizeidaten, deren Offenlegung Einzelne gefährden oder Ermittlungen kompromittieren könnte. Politische Beratungen, die Märkte, Beschaffungsentscheidungen oder Beziehungen zwischen Behörden beeinflussen können. Interne Kommunikation, die dem IFG, dem Privacy Act und der Aufsicht durch Generalinspekteure, das GAO und parlamentarische Ausschüsse unterliegt.
Die Folgen einer Offenlegung gehen über finanzielle Strafen hinaus. Öffentliches Vertrauen – das Fundament staatlicher Legitimität – schwindet, wenn Bürger erfahren, dass ihre Daten in ein öffentliches KI-Modell eingeflossen sind, weil ein Mitarbeitender Zeit bei einem Bericht sparen wollte.
Das Training von DC nimmt diese Risiken ernst. Es behandelt, wie Daten erhoben, verarbeitet und geschützt werden, wenn KI-Tools in Arbeitsabläufe integriert werden. Es stärkt den „Human-in-the-Loop“-Ansatz, der Mitarbeitende in die Verantwortung nimmt. Doch Verantwortlichkeit im Nachhinein verhindert keine Offenlegung im Moment der Handlung.
KI-Agenten schaffen eine Risikokategorie, die Training nicht adressieren kann
DCs Trainingsvorgabe ist für eine Welt konzipiert, in der Menschen mit KI-Tools interagieren. Diese Welt verändert sich bereits. KI-Agenten – autonome Systeme, die eigenständig Entscheidungen treffen, handeln und auf Unternehmensressourcen zugreifen – halten Einzug in Verwaltungsprozesse. Sie bringen Risiken mit sich, die kein Training für Mitarbeitende abdecken kann.
Microsofts Cyber Pulse Report bestätigt, dass über 80 % der Fortune-500-Unternehmen aktive KI-Agenten einsetzen, viele davon mit Low-Code-Tools, die die Erstellung von Agenten auch Nicht-Entwicklern ermöglichen. Der Bericht warnt, diese Agenten „skalieren schneller, als manche Unternehmen sie überhaupt wahrnehmen“. Proofpoints 2025 Data Security Landscape Report beschreibt einen „agentischen Workspace“, den die meisten Unternehmen nicht ausreichend überwachen können, und 32 % der Unternehmen sehen unüberwachten KI-Agenten-Zugriff auf Daten als kritische Bedrohung.
Die Angriffsfläche ist belegt. Trend Micro hat gezeigt, dass KI-Agenten durch versteckte Anweisungen in Dokumenten und Bildern manipuliert werden können – was zur Exfiltration sensibler Daten ohne Nutzerinteraktion führt. Forschende auf arXiv entwickelten einen vollständigen Exploit, bei dem ein RAG-basierter Agent Geheimnisse aus seiner Wissensbasis abrief und an einen angreifergesteuerten Server übermittelte, wobei das eigene Websuche-Tool des Agenten als Exfiltrationskanal diente. Ihr Fazit: Eingebaute Sicherheitsmechanismen der Modelle reichen ohne zusätzliche Verteidigungsschichten nicht aus.
Ein geschulter Mitarbeitender kann einen Prompt-Injection-Angriff gegen einen KI-Agenten, von dessen Existenz er nichts weiß, nicht verhindern. Ein geschulter Mitarbeitender erkennt nicht, dass ein Agent mit Zugriff auf Bürgerdaten Informationen an einen nicht autorisierten Empfänger sendet. Ein geschulter Mitarbeitender kann nicht stoppen, was er nicht sieht.
Mit dem Einzug agentischer KI in Behörden – und DCs eigener Governance-Rahmen, der den KI-Einsatz in der Stadtverwaltung ausweiten will – wächst die Lücke zwischen dem, was Training abdeckt, und dem, was technische Kontrollen verhindern. Training schult Menschen. Technische Kontrollen steuern Maschinen.
So sieht vollständige KI-Governance aus: Fünf Ebenen, nicht nur eine
DCs Trainingsvorgabe ist ein wichtiger Baustein der KI-Governance. Sie ist nicht das vollständige Bild. Effektive KI-Governance erfordert fünf ineinandergreifende Ebenen, und Training deckt nur die erste ab.
Ebene eins ist Schulung – genau das, was DC umsetzt. Training der Belegschaft zum verantwortungsvollen KI-Einsatz, Bewusstsein für Risiken, Verständnis der Richtlinien und genehmigten Tools. Diese Ebene setzt auf menschliche Compliance. Sie ist notwendig, aber nicht ausreichend.
Ebene zwei ist die Richtlinie – die Governance-Rahmen, die DC per Executive Order geschaffen hat. Schriftliche Regeln für zulässigen KI-Einsatz, Listen genehmigter Tools, Anforderungen an die Datenklassifizierung. Diese Ebene schafft Erwartungen. Richtlinien setzen sich nicht von selbst durch.
Ebene drei sind technische Kontrollen – die Infrastruktur, die Richtlinienverstöße unabhängig vom Verhalten der Mitarbeitenden verhindert. DLP, das sensible Daten-Uploads zu nicht autorisierten KI-Diensten blockiert. Sichere Gateways, die genehmigte KI-Alternativen bereitstellen, damit Mitarbeitende nicht auf Schatten-KI ausweichen. Zero-trust-Zugriffskontrollen, die steuern, worauf KI-Agenten zugreifen dürfen. Hier findet die Durchsetzung statt.
Ebene vier ist Monitoring – Echtzeit-Erkennung von Richtlinienverstößen und Anomalien. Feststellen, wenn ein Mitarbeitender versucht, ein nicht genehmigtes KI-Tool zu nutzen. Alarmieren, wenn ein KI-Agent Daten außerhalb seines autorisierten Bereichs anfordert. Ungewöhnliche Zugriffsmuster erkennen, die auf Kompromittierung oder Missbrauch hindeuten. Diese Ebene schließt die Lücke zwischen Richtlinie und Realität.
Ebene fünf ist Audit – unveränderliche Protokolle jeder KI-Daten-Interaktion als Nachweis der Compliance für Aufsichtsbehörden. Wenn ein Generalinspekteur fragt, wie Regierungsdaten mit KI-Systemen interagieren, braucht es Belege – kein Zertifikat über abgeschlossene Schulungen. Umfassende Audit-Trails zeigen, wer auf welche Daten, über welches KI-System, wann und mit welchem Ergebnis zugegriffen hat.
DC hat Ebene eins und zwei. Die übrigen drei erfordern Infrastruktur.
Was Training wirksam macht: Die technische Ebene, die KI-Governance absichert
Das Private Data Network von Kiteworks liefert die drei Ebenen, die Training und Richtlinie nicht abdecken – technische Kontrollen, Monitoring und Audit – in einer Plattform, die speziell für regulierte Organisationen entwickelt wurde.
Zur Verhinderung von Schatten-KI blockiert das AI Data Gateway von Kiteworks sensible Datenströme zu nicht autorisierten KI-Diensten und bietet gleichzeitig eine sichere, gesteuerte Alternative. Anstatt Mitarbeitenden zu sagen, sie sollen öffentliche KI-Tools nicht nutzen, und auf Compliance zu hoffen, setzt die Plattform die Richtlinie technisch durch. DLP-Scanning erkennt vertrauliche Daten und verhindert deren Übertragung. Das sichere Gateway stellt einen genehmigten KI-Workflow bereit, sodass Mitarbeitende KI produktiv nutzen können, ohne dass Daten die Kontrolle der Verwaltung verlassen. Wenn der geschulte Mitarbeitende vor dem 500-seitigen Dokument und dem morgigen Termin steht, hat er einen gesteuerten Weg – nicht nur eine Richtlinie, die ihm sagt, was er nicht tun darf.
Für die Steuerung von KI-Agenten kapselt der Secure MCP Server von Kiteworks die Ausführung von KI-Agenten mit OAuth 2.0-Authentifizierung, Anomalieerkennung und Durchsetzung bestehender Governance-Rahmen. Jeder KI-Agent wird als eigene Identität behandelt, die eine zero-trust-Verifizierung erfordert. Der Zugriff ist auf die für die jeweilige Funktion minimal erforderlichen Daten beschränkt. Ausgehende Datenströme werden gesteuert, um Exfiltration zu verhindern – egal ob durch einen kompromittierten Agenten, eine manipulierte Eingabe oder einen fehlerhaft konfigurierten Workflow. Diese Ebene adressiert die Risiken durch KI-Agenten, die kein Training abdecken kann.
Für die Nachweisführung stellt Kiteworks umfassende, unveränderliche Audit-Trails bereit, die jede KI-Daten-Interaktion erfassen – wer, was, wann, wo, wie – über Filesharing, Managed File Transfer, E-Mail, Web-Formulare, APIs und KI-Interaktionen hinweg. Echtzeit-Benachrichtigungen melden Richtlinienverstöße sofort. Ein CISO-Dashboard bietet Transparenz über KI-Datenzugriffe im gesamten Unternehmen. Wenn Aufsichtsbehörden den Nachweis verlangen, dass KI-Governance-Richtlinien durchgesetzt – und nicht nur dokumentiert – werden, liefern Organisationen mit Kiteworks diesen Nachweis aus einem einzigen System.
Speziell für Behörden gilt: Kiteworks besitzt die FedRAMP High-Zertifizierung und unterstützt On-Premises-, Private-Cloud- und hybride Bereitstellung – und erfüllt damit die Anforderungen an Datenresidenz und -souveränität, mit denen Behörden konfrontiert sind. Vorgefertigte Compliance-Kontrollen decken FISMA, den Privacy Act, HIPAA, CMMC und neue KI-spezifische Vorgaben ab.
Schulen Sie Ihre Mitarbeitenden. Kontrollieren Sie Ihre Daten.
Die KI-Trainingsvorgabe von DC verdient Anerkennung. Sie signalisiert, dass die Verwaltung KI-Governance ernst nimmt, dass Beschäftigte im öffentlichen Dienst praxisnahe Orientierung brauchen und dass Richtlinien im Alltag gelebt werden müssen. Andere Behörden und Unternehmen sollten DCs Beispiel folgen.
Doch Training allein hat noch nie Datenpannen verhindert – weder bei Phishing, noch bei Passwort-Hygiene, noch bei KI. Organisationen, die KI erfolgreich steuern, kombinieren Schulung mit technischer Durchsetzung. Sie schulen ihre Mitarbeitenden im verantwortungsvollen KI-Einsatz – und schaffen die technische Infrastruktur, die sicherstellt, dass verantwortungsvoller KI-Einsatz die einzige Option bleibt.
Die Lehre aus DCs Ankündigung ist nicht, dass Training überflüssig ist. Sondern, dass Training der Anfang von KI-Governance ist – nicht das Ende. Wer es als Endpunkt betrachtet, wird zu den 98 % gehören, in denen trotz bester Richtlinien Schatten-KI genutzt wird.
Wer Training mit technischen Kontrollen kombiniert, sorgt dafür, dass die eigenen Daten dort bleiben, wo sie hingehören.
Erfahren Sie, wie Kiteworks Sie unterstützen kann – vereinbaren Sie noch heute eine individuelle Demo.
Häufig gestellte Fragen
Training vermittelt, wie verantwortungsvoller KI-Einsatz aussieht – es kann menschliches Verhalten unter Druck aber nicht überschreiben. Studien bestätigen: 98 % der Unternehmen haben Mitarbeitende, die trotz Richtlinien nicht genehmigte Anwendungen nutzen, und im Schnitt gibt es 223 KI-bezogene Verstöße gegen Datenrichtlinien pro Monat. Auch die Informationsbehaltung nimmt ohne Wiederholung innerhalb von 30 bis 90 Tagen nach dem Training deutlich ab. Wenn der Zeitdruck steigt und das genehmigte Tool langsam ist, greifen Mitarbeitende zu dem, was funktioniert. Die einzige verlässliche Lösung ist technische Durchsetzung: DLP-Kontrollen, die nicht autorisierte Uploads blockieren, und ein gesteuertes KI-Gateway, das eine konforme Alternative bietet – so müssen Mitarbeitende nicht zwischen Produktivität und Richtlinie wählen.
Behörden verwalten Datenkategorien, deren Missbrauch weit über einen typischen Unternehmensvorfall hinausgeht. Personenbezogene Daten von Bürgern – Sozialversicherungsnummern, Gesundheitsdaten, Steuerinformationen – werden auf gesetzlicher Grundlage erhoben und unterliegen dem Schutzversprechen. Polizeidaten, deren Offenlegung Einzelne gefährden oder laufende Ermittlungen kompromittieren könnte. Politische Beratungen, die Märkte oder Beschaffungsentscheidungen beeinflussen können. Interne Kommunikation, die dem IFG, dem Privacy Act und der Aufsicht durch Generalinspekteure und parlamentarische Ausschüsse unterliegt. Gelangen diese Daten in das Trainingsset eines öffentlichen KI-Modells, können sie nicht zurückgeholt, gelöscht oder kontrolliert werden. Der Reputations- und Vertrauensverlust verschärft die rechtlichen Risiken.
KI-Agenten sind autonome Systeme, die unabhängig auf Unternehmensdaten zugreifen – ohne menschliche Steuerung bei jedem Schritt. Sie bringen zwei Risikokategorien mit, die Training nicht abdeckt. Erstens: Prompt Injection. Forschende haben gezeigt, dass versteckte Anweisungen in Dokumenten, Bildern oder Webseiten einen Agenten zur Exfiltration sensibler Daten bewegen können – ohne Nutzerinteraktion. Ein geschulter Mitarbeitender kann einen Angriff, den er nicht sieht, nicht stoppen. Zweitens: Übermäßiger Zugriff. Agenten agieren oft als hochprivilegierte Identitäten mit deutlich mehr Datenzugriff als jeder menschliche Anwender. Ihre Steuerung erfordert zero-trust-Zugriffskontrollen, gekapselte Ausführung und Audit-Trails auf Datenebene – all das bietet ein Trainingsprogramm nicht.
Effektive KI-Governance erfordert fünf Ebenen: Schulung (Training der Belegschaft zum verantwortungsvollen Einsatz), Richtlinie (Governance-Rahmen und Listen genehmigter Tools), technische Kontrollen (DLP, das nicht autorisierte Uploads blockiert, sichere KI-Gateways, zero-trust-Zugriffskontrollen für KI-Agenten), Monitoring (Echtzeit-Erkennung von Richtlinienverstößen und anomalen Agentenverhalten) und Audit (unveränderliche Audit-Trails jeder KI-Daten-Interaktion für Compliance und Aufsicht). Training deckt Ebene eins ab. Es ist notwendig, aber ohne die übrigen vier Ebenen bleibt es eine Dokumentation der Absicht, keine Durchsetzung des Verhaltens. DC hat Ebene eins und zwei aufgebaut; die übrigen drei erfordern Investitionen in Infrastruktur.
Behörden stehen vor einem vielschichtigen Compliance-Umfeld, das direkt mit dem Zugriff, der Verarbeitung und der Übertragung sensibler Daten durch KI-Tools verknüpft ist. FISMA verlangt, dass Bundesinformationssysteme definierte Sicherheitskontrollen erfüllen – das gilt auch für KI-Tools, die Regierungsdaten verarbeiten. Der Privacy Act regelt, wie personenbezogene Daten bei Bundesbehörden erhoben, genutzt und weitergegeben werden – auch durch automatisierte Systeme. Für Cloud-Dienste, die von Bundesbehörden genutzt werden, ist eine FedRAMP-Zertifizierung erforderlich, was bedeutet, dass KI-Plattformen FedRAMP-Standards erfüllen müssen. HIPAA gilt, wenn KI auf geschützte Gesundheitsdaten zugreift. CMMC regelt Auftragnehmer, die kontrollierte, nicht klassifizierte Informationen verarbeiten. Und neue KI-spezifische Vorgaben – darunter Executive Orders und behördliche KI-Governance-Rahmen – ergänzen bestehende Kontrollen um Anforderungen an Dokumentation, Auditierbarkeit und menschliche Aufsicht.
Weitere Ressourcen
- Blogbeitrag Zero Trust Architecture: Never Trust, Always Verify
- Video Microsoft GCC High: Nachteile treiben Verteidigungsauftragnehmer zu intelligenteren Lösungen
- Blogbeitrag Wie Sie klassifizierte Daten schützen, sobald DSPM sie erkennt
- Blogbeitrag Vertrauen in generative KI mit einem Zero Trust-Ansatz aufbauen
- Video Der definitive Leitfaden zur sicheren Speicherung sensibler Daten für IT-Leiter