Jensen Huang hat die strategische Notwendigkeit klar definiert – doch die schwierigste Herausforderung bleibt ungelöst
Am 16. März 2026 stand NVIDIA-CEO Jensen Huang vor ausverkauftem Haus im SAP Center in San Jose und formulierte das, was als technologische Leitlinie des Jahres gelten könnte. „Jedes einzelne Unternehmen weltweit braucht heute eine OpenClaw-Strategie, eine Strategie für agentische Systeme“, erklärte Huang. „Das ist der neue Computer. Das ist so bedeutend wie HTML, so bedeutend wie Linux.“
Der Vergleich war bewusst gewählt. HTML schuf das Web. Linux wurde zum Betriebssystem der Cloud-Infrastruktur. Kubernetes ermöglichte Mobile Cloud. Huang positioniert OpenClaw – das quelloffene AI-Agenten-Framework, das in weniger als einem Monat zum meistgeladenen Projekt der GitHub-Geschichte wurde – als nächste Plattformrevolution von vergleichbarem Ausmaß.
Mit der Dringlichkeit hat er recht. Doch die von ihm beschriebene Strategie ist nicht vollständig. Und genau in dieser Lücke liegt das eigentliche Risiko für jedes Unternehmen, das seinem Rat folgt.
OpenClaws Verbreitung ist beispiellos – und das gilt auch für die Sicherheitslücken
Die Verbreitungszahlen sind beispiellos. OpenClaw übertraf den dreißigjährigen Aufstieg von Linux in nur drei Wochen. Laut NVIDIA ist es nun das beliebteste Open-Source-Projekt der Menschheitsgeschichte nach Sternen und Downloads. Huang selbst sagte, die Wachstumskurve „sieht aus wie die Y-Achse. So etwas habe ich noch nie gesehen.“
Was Huang nicht thematisierte, ist das, was in diesen drei Wochen geschah. Bereits wenige Tage nach dem viralen Erfolg dokumentierten Sicherheitsforscher eine Kaskade von Schwachstellen, die jeden Entscheider bei einer Enterprise-Einführung alarmieren sollten.
Oasis Security veröffentlichte CVE-2026-25253 – eine Schwachstelle, durch die eine böswillige Website den AI-Agenten eines Entwicklers kapern konnte, ganz ohne Plugins, Browser-Erweiterungen oder Nutzerinteraktion. CVSS-Score: 8,8. Forscher von Koi Security fanden heraus, dass 12 % aller Skills auf ClawHub – dem öffentlichen OpenClaw-Marktplatz – als bösartig bestätigt wurden und Keylogger sowie Info-Stealer verteilten. Bitsight entdeckte über 30.000 öffentlich erreichbare OpenClaw-Instanzen im Internet, die API-Keys, Chatverläufe und Zugangsdaten preisgaben. Und die Moltbook-Plattform – ein soziales Netzwerk ausschließlich für AI-Agenten – hatte eine ungesicherte Datenbank, die 35.000 E-Mail-Adressen und 1,5 Millionen Agenten-API-Tokens offenlegte.
Gartner bezeichnete OpenClaw als „eine gefährliche Vorschau auf agentische KI, mit hohem Nutzen, aber ‚insecure by default‘-Risiken für Unternehmen.“ Das Sicherheitsteam von Microsoft empfahl, OpenClaw als „untrusted code execution mit persistenten Zugangsdaten“ zu behandeln und nur in vollständig isolierten Umgebungen einzusetzen.
Das ist die Plattform, um die Huang jeden CEO bittet, eine Strategie zu entwickeln. Er hat Recht, dass sie das tun sollten. Aber die Strategie muss die Sicherheitsrealität berücksichtigen, nicht nur das Produktivitätsversprechen. Diese Realität umfasst Ransomware-Angriffe, Malware-Attacken und eine wachsende Zahl von Bedrohungsakteuren, die AI-Agenten-Infrastruktur als Angriffsfläche betrachten.
Sie vertrauen darauf, dass Ihr Unternehmen sicher ist. Aber können Sie es auch nachweisen?
Jetzt lesen
Was NVIDIA gebaut hat: NemoClaw, OpenShell und Nemotron 3
NVIDIAs Antwort auf die Sicherheitslücken von OpenClaw ist NemoClaw – eine Ein-Kommando-Installation, die drei Komponenten zu einem Enterprise-Stack bündelt.
Erstens NVIDIA OpenShell – eine Open-Source-Laufzeitumgebung, die Agenten-Ausführung in einer Sandbox isoliert und richtlinienbasierte Sicherheit, Netzwerksteuerung sowie Datenisolation erzwingt. Zweitens Nemotron 3 – NVIDIAs Open-Source-Sprachmodelle, die lokal auf RTX-PCs, DGX Spark und DGX Station laufen und so das Modell-Inferencing On-Premises halten. Drittens ein Privacy Router, der hybride Ausführung zwischen lokalen Nemotron-Modellen und Cloud-Frontier-Modellen innerhalb definierter Leitplanken steuert.
Das Sicherheitsökosystem rund um diesen Stack wächst rasant. Microsoft Security kooperiert mit NVIDIA bei adversarial learning mit Nemotron und OpenShell und berichtet von einer 160-fachen Verbesserung bei der Erkennung und Abwehr von KI-basierten Angriffen. Cisco integriert seine AI Defense-Lösung. CrowdStrikes Secure-by-Design AI Blueprint verankert Schutzmechanismen direkt im Toolkit.
Das ist tatsächlich beeindruckende Infrastrukturarbeit. OpenShell adressiert reale Schwachstellen zur Laufzeit. Nemotron 3 lokal löst das Thema Datenhoheit bei Modellen. Der Privacy Router steuert hybride Ausführung intelligent.
Doch all das adressiert nicht die dritte Ebene.
Die fehlende Ebene: Data Governance und Compliance
Hier ist die Frage, die eine vollständige OpenClaw-Strategie von einer unvollständigen trennt: Wenn Ihr CMMC-Prüfer, HIPAA-Auditor oder PCI-QSA fragt: „Zeigen Sie mir, auf welche regulierten Daten Ihre AI-Agenten zugegriffen haben, mit welcher Autorisierung, mit welcher Verschlüsselung, und legen Sie den Audit-Trail vor“ – was zeigen Sie vor?
OpenShell kann diese Frage nicht beantworten. Es steuert, wie Agenten zur Laufzeit agieren – welche Tools sie nutzen dürfen, welche Netzwerkpfade sie nehmen, wie sie während der Ausführung isoliert werden. Es steuert nicht, wie Agenten auf regulierte Daten auf Dateiebene zugreifen. Es erzwingt keinen HIPAA-konformen minimalen Zugriff auf einzelne Dateioperationen. Es erhält keine Delegationsketten, die Agentenaktionen mit menschlichen Autorisierern verknüpfen. Es setzt keine FIPS 140-3-validierte Verschlüsselung für Daten während der Übertragung und im ruhenden Zustand ein. Es erzeugt keine manipulationssicheren Audit-Trails, die spezifischen Compliance-Anforderungen zugeordnet sind.
Die Kiteworks Data Security, Compliance & Risk Forecast 2026 quantifiziert diese Lücke. Nur 43 % der Unternehmen verfügen über ein zentrales AI Data Gateway. Die übrigen 57 % sind fragmentiert, unvollständig oder agieren im Blindflug. 63 % können keine Zweckbindung für AI-Agenten durchsetzen. 60 % können einen fehlverhaltenden Agenten nicht beenden. 7 % haben keinerlei dedizierte AI-Kontrollen für den Zugriff von AI-Systemen auf sensible Daten.
Diese Zahlen beschreiben das Umfeld, in dem OpenClaw-Agenten eingeführt werden. NemoClaw verbessert die Laufzeitsicherheit dieser Agenten. Es adressiert jedoch nicht das Vakuum bei der AI Data Governance, in dem sie agieren.
Die Drei-Ebenen-Architektur, die jeder CEO verstehen muss
Eine vollständige OpenClaw-Strategie im Unternehmen erfordert Governance auf drei klar abgegrenzten Ebenen. Kein einzelner Anbieter deckt alle drei ab. Klarheit darüber, wer was liefert, ist unerlässlich – es ist der Unterschied zwischen einem verteidigbaren KI-Programm und einem Compliance-Risiko.
Ebene 1: Compute und Modell. Wo Modelle laufen, welche Hardware das Inferencing übernimmt, Auswahl zwischen lokalen und Cloud-Modellen. NVIDIA liefert dies mit DGX Spark, DGX Station, Nemotron 3 und dem Privacy Router. Diese Ebene steuert nicht, auf welche Unternehmensdateien der Agent zugreift oder erzeugt Compliance-Nachweise.
Ebene 2: Agent Runtime und Policy. Wie Agenten ausgeführt werden, welche Tools sie nutzen, Sandbox-Mechanismen, Netzwerk-Leitplanken, Schutz vor Angriffen. NVIDIA OpenShell bietet dies, ergänzt durch Cisco AI Defense, CrowdStrike und Microsoft Security. Diese Ebene erzwingt keine Dateizugriffskontrollen, keine FIPS 140-3-Verschlüsselung und keine Abbildung auf spezifische regulatorische Rahmenwerke.
Ebene 3: Data Governance und Compliance. Welche Dateien und Datensätze der Agent unter welchen Richtlinien, mit welcher Verschlüsselung und welchem Audit-Trail zugreifen darf, und auf welche Regulierungen dies abgebildet wird. Das Private Data Network von Kiteworks bietet dies mit seinem Secure MCP Server, AI Data Gateway und Governed Assists – authentifizierte Agenten-Identität, attributbasierte Zugriffskontrolle bei jeder Operation, FIPS 140-3-validierte Verschlüsselung und manipulationssichere Audit-Trails, die direkt auf HIPAA, CMMC, PCI DSS, SEC und SOX-Anforderungen abbilden.
Der Vergleich ist einfach: OpenShell verhält sich zu Kiteworks wie Kubernetes-Netzwerkregeln zu Datenverschlüsselung. Kubernetes kann steuern, „dieser Pod darf mit jenem Service sprechen“. Es verschlüsselt aber nicht die Daten, erzwingt keinen minimal notwendigen Zugriff auf Dateiebene und erzeugt keine Audit-Nachweise. Das gleiche Verhältnis gilt hier.
Warum lokale Modellausführung Data Governance dringlicher macht – nicht weniger
Ein kontraintuitiver Punkt verdient besondere Betonung. Nemotron 3 lokal auf DGX Spark oder RTX-PCs löst das Thema Datenhoheit – Prompts und Inferencing bleiben On-Premises. Das ist ein echter Sicherheitsgewinn gegenüber der Weiterleitung aller Daten an Cloud-APIs.
Doch die lokale Modellausführung erhöht tatsächlich die Dringlichkeit für Data Governance. Wenn ein Cloud-AI-Anbieter Ihre Daten verarbeitet, agiert dessen Sicherheitsteam als teilweiser Intermediär. Laufen Modelle lokal, gibt es keinen Intermediär. Der Agent hat direkten lokalen Zugriff auf Unternehmensdateisysteme, Netzlaufwerke und angebundene Dienste.
Microsofts eigenes Sicherheitsteam warnte genau davor: Das lokale Zugriffsmuster bedeutet, dass der Agent den vollen Berechtigungsumfang der Maschine erbt, auf der er läuft. Im Kompromittierungsfall ist das Schadenspotenzial die gesamte lokale Umgebung. Unternehmen brauchen nicht nur lokales Inferencing – sie brauchen einen gesteuerten Zugriff auf die Daten, die das lokale Inferencing berührt. Ohne AI Data Protection Controls auf Datenebene bleibt Laufzeitsicherheit unvollständig.
Wie Kiteworks Compliant AI die OpenClaw-Strategie des CEOs komplettiert
Kiteworks Compliant AI arbeitet auf Ebene 3 der OpenClaw-Architektur im Unternehmen – es steuert, was passiert, wenn AI-Agenten auf regulierte Daten zugreifen, unabhängig davon, welche Laufzeit, welches Modell oder welche Policy Engine darüber liegt. Es fängt jede Interaktion eines AI-Agenten mit sensiblen Unternehmensdaten ab – überprüft Identität, erzwingt Richtlinien, wendet validierte Verschlüsselung an und erfasst manipulationssichere Audit-Logs – bevor Daten abgerufen, übertragen oder verarbeitet werden.
Der Kiteworks Secure MCP Server ermöglicht es AI-Assistenten wie Claude und Copilot, über das branchenübliche Model Context Protocol mit Unternehmensdaten zu interagieren – jede Operation wird via OAuth 2.0 authentifiziert, gegen ABAC-Richtlinien autorisiert und in einem manipulationssicheren Audit-Trail protokolliert. Das Kiteworks AI Data Gateway bietet dieselbe Governance für programmatische RAG-Pipelines und automatisierte Workflows.
Vier technische Säulen machen diese Governance revisionssicher: Authentifizierte Agenten-Identität verknüpft jede Aktion mit einem menschlichen Autorisierer und erhält die Delegationskette. ABAC-Policy Enforcement prüft jede Datenanfrage gegen mehrdimensionale Richtlinien – ein Agent mit Leseberechtigung für einen Ordner darf nicht automatisch dessen Inhalte herunterladen. FIPS 140-3-validierte Verschlüsselung schützt Daten während der Übertragung und im ruhenden Zustand mit Kryptografie, die Bundesprüfungen standhält. Und manipulationssichere Audit-Trails fließen direkt ins unternehmenseigene SIEM und erfassen wer, was, wann und warum für jede Agenten-Interaktion.
Das steht nicht im Wettbewerb zu NemoClaw – es ergänzt sich. NemoClaw sichert die Agenten-Laufzeit. Kiteworks Compliant AI schützt die Daten, auf die der Agent zugreift. Gemeinsam erfüllen sie Jensens Forderung nach einer OpenClaw-Strategie für Unternehmen. Allein gelassen bleibt jeweils eine kritische Lücke.
Was CEOs in diesem Quartal tun sollten, um eine verteidigungsfähige OpenClaw-Strategie aufzubauen
Erstens: Verschaffen Sie sich Transparenz darüber, wo OpenClaw und andere agentische KI-Tools bereits in Ihrer Umgebung laufen. CrowdStrike, Microsoft und Sophos haben alle spezielle Erkennungshinweise veröffentlicht, weil Mitarbeitende diese Tools ohne Wissen der IT einsetzen. Sie können nur steuern, was Sie sehen. KI-Risikomanagement beginnt mit der Inventarisierung.
Zweitens: Übernehmen Sie das Drei-Ebenen-Architekturmodell für Ihre KI-Governance-Diskussionen. Wenn Ihr CIO eine OpenClaw-Strategie präsentiert, die nur Compute und Laufzeit abdeckt, stellen Sie die Frage zur Ebene 3: „Wer steuert den Datenzugriff und wie weisen wir Compliance nach?“
Drittens: Etablieren Sie zentrale AI Data Governance, bevor Sie Agenten breit ausrollen. Der Kiteworks Forecast Report 2026 zeigte: Nur 43 % der Unternehmen verfügen über ein zentrales AI Data Gateway. Wer Governance-Infrastruktur vor dem KI-Rollout aufbaut, spart sich teure Nachrüstungen.
Viertens: Ordnen Sie Ihre bestehenden regulatorischen Verpflichtungen den Interaktionen von AI-Agenten zu. HIPAA, CMMC 2.0, PCI-Compliance, SEC und SOX machen keine Ausnahmen für AI-Agenten. Jede Regelung, die für Ihre menschlichen Mitarbeitenden gilt, gilt auch für Ihre AI-Agenten. Bewerten Sie Ihre Datensicherheitslage über alle KI-Touchpoints hinweg, bevor Agenten sich weiterverbreiten.
Fünftens: Behandeln Sie Data Compliance Governance als KI-Beschleuniger, nicht als KI-Blocker. Die Unternehmen, die KI am schnellsten einführen, sind jene, die Sicherheitsprüfungen am schnellsten bestehen. Automatisierte Governance ersetzt die manuelle Compliance-Hürde, die KI-Projekte in regulierten Unternehmen ausbremst.
Das Zeitfenster für proaktive Governance schließt sich. Jede Woche ohne AI Data Governance ist eine Woche unkontrollierter Agenten-Interaktionen, die nicht nachträglich geprüft werden können. Jensen Huang forderte von jedem CEO eine OpenClaw-Strategie. Er hat Recht. Die Frage ist, ob Ihre alle drei Ebenen abdeckt.
Erfahren Sie mehr darüber, wie Kiteworks Sie unterstützen kann, und vereinbaren Sie noch heute eine individuelle Demo.
Häufig gestellte Fragen
Die Einführung von OpenClaw im Unternehmen birgt dokumentierte Sicherheitsrisiken, darunter CVE-2026-25253 (One-Click-RCE, CVSS 8,8) und 12 % bösartige Skills im Marktplatz. Teilen Sie Ihrem Vorstand mit, dass die Strategie drei Ebenen benötigt: NVIDIA für Compute, OpenShell für Laufzeit-Policies und eine Data-Governance-Ebene wie Kiteworks für Compliance. Laufzeitsicherheit allein erfüllt keine Audit-Anforderungen.
Nein. NVIDIA OpenShell steuert das Laufzeitverhalten von Agenten – Sandbox, Toolzugriff und Netzwerk-Leitplanken. Es erzwingt keinen HIPAA-konformen minimalen Zugriff auf Dateiebene, erhält keine Delegationsketten für CMMC-Audits, setzt keine FIPS 140-3-Verschlüsselung ein und erzeugt keine regulatorisch spezifischen Compliance-Nachweise. Data Governance erfordert eine ergänzende Ebene-3-Lösung wie das AI Data Gateway von Kiteworks.
Lokale Modellausführung hält Prompts On-Premises, steuert aber nicht den Datenzugriff. Wie Microsoft Security warnte, übernehmen lokal laufende Agenten den vollen Berechtigungsumfang ihrer Host-Maschine, was ein größeres Schadenspotenzial als Cloud-API-Aufrufe schafft. Sie benötigen sowohl lokales Inferencing als auch zentrale Data Governance.
CMMC unterscheidet nicht zwischen menschlichem und KI-Zugriff auf CUI. Die Kiteworks Forecast 2026 zeigte, dass 63 % der Unternehmen keine Zweckbindung für AI-Agenten durchsetzen können. Ein unkontrollierter AI-Agent, der ohne authentifizierte Identität, Policy Enforcement und Audit Logging auf CUI zugreift, stellt einen CMMC-Compliance-Verstoß dar – unabhängig von der Laufzeitsicherheit.
Ja. So wie jedes Unternehmen irgendwann eine Linux-Strategie und eine Internet-Strategie brauchte, wird jedes Unternehmen eine Strategie für agentische AI-Governance benötigen. Der Unterschied ist das Tempo: Linux brauchte 30 Jahre für die heutige Verbreitung. OpenClaw schaffte das in drei Wochen. Governance-Infrastruktur muss jetzt aufgebaut werden – nicht erst nach dem Audit-Befund.
Weitere Ressourcen
- Blogbeitrag
Zero‑Trust-Strategien für erschwinglichen KI-Datenschutz - Blogbeitrag
Wie 77 % der Unternehmen bei KI-Datensicherheit scheitern - eBook
AI Governance Gap: Warum 91 % kleiner Unternehmen 2025 beim Datenschutz russisches Roulette spielen - Blogbeitrag
Für Ihre Daten gibt es kein „–dangerously-skip-permissions“ - Blogbeitrag
Aufsichtsbehörden fragen nicht mehr, ob Sie eine KI-Policy haben. Sie wollen den Nachweis, dass sie funktioniert.