AI Can Now Hack Your Network: What the Latest Research Reveals

KI kann jetzt Ihr Netzwerk hacken: Was die neuesten Forschungsergebnisse zeigen

Der Beginn der KI-gesteuerten Cyberkriegsführung

Aktuelle Forschungsergebnisse der Carnegie Mellon University und Anthropic zeigen, dass Large Language Models (LLMs) eigenständig komplexe, mehrstufige Netzwerkangriffe ausführen und Unternehmensumgebungen mit minimalem menschlichen Eingriff kompromittieren können. Diese Entwicklung verändert grundlegend, wie Unternehmen Cybersicherheit angehen müssen.

Bisher erforderten komplexe Cyberangriffe erfahrene menschliche Angreifer, die Netzwerke systematisch untersuchten, Schwachstellen identifizierten und ihre Angriffsstrategien gezielt umsetzten. Dieses Bild wandelt sich. Moderne KI-Modelle können mit den passenden Tools menschliche Angriffsleistungen erreichen oder übertreffen – und das rund um die Uhr, ohne Ermüdung oder menschliche Einschränkungen.

Sie vertrauen darauf, dass Ihr Unternehmen sicher ist. Doch können Sie es nachweisen?

Jetzt lesen

Die Verfügbarkeit dieser Fähigkeiten stellt Unternehmen vor neue Herausforderungen. Früher waren mehrstufige Netzwerkangriffe nur mit umfassender Erfahrung und technischem Know-how möglich. Die Forschung zeigt jedoch, dass LLMs mit einem Abstraktionstool namens Incalmo in den getesteten Umgebungen Erfolgsquoten zwischen 48 % und 100 % erzielten – Ergebnisse, die die sofortige Aufmerksamkeit von Sicherheitsexperten erfordern.

Unternehmen müssen ihre Sicherheitsstrategien neu überdenken. Herkömmliche Verteidigungsmaßnahmen, die auf Angriffe im menschlichen Tempo ausgelegt sind, reichen gegen KI-gesteuerte Bedrohungen nicht aus, die kontinuierlich, dynamisch und ohne menschliche Begrenzungen komplexe Angriffsketten ausführen.

Forschung verstehen: Wenn KI zum Angreifer wird

Umfang und Methodik der Studie

Die gemeinsame Forschung von Carnegie Mellon University und Anthropic liefert eine der umfassendsten Bewertungen der offensiven Fähigkeiten von LLMs. Die Forscher testeten führende KI-Modelle – darunter GPT-4, Claude und Googles Gemini-Familie – in 10 sorgfältig gestalteten Netzwerkumgebungen, die reale Unternehmensarchitekturen widerspiegeln.

Die Testumgebungen umfassten 25 bis 50 Hosts und Szenarien auf Basis dokumentierter Vorfälle wie dem Equifax-Breach und dem Colonial Pipeline-Angriff. Jede Umgebung bot realistische Netzwerktopologien, verwundbare Dienste und typische Fehlkonfigurationen in Unternehmen. Ziel war es, herauszufinden, ob KI eigenständig komplexe, mehrstufige Angriffe ausführen kann, die normalerweise erfahrene menschliche Angreifer erfordern.

Wichtige Erkenntnisse

  1. KI kann jetzt Unternehmensnetzwerke autonom hacken

    Die Forschung von Carnegie Mellon und Anthropic belegt, dass LLMs mit den richtigen Tools komplexe, mehrstufige Netzwerkangriffe mit Erfolgsquoten von bis zu 100 % ausführen können. Das ist keine Theorie – es geschieht bereits mit öffentlich verfügbaren KI-Modellen, auf die jeder zugreifen kann.

  2. Die Abstraktionsschicht hat alles verändert

    LLMs scheiterten zunächst beim Hacken (weniger als 30 % Erfolg). Mit Incalmo – einem Tool, das Konzepte in technische Befehle übersetzt – kompromittierten sie 9 von 10 Testnetzwerken. Das zeigt: KI benötigt kein tiefes technisches Wissen, sondern nur die richtigen Übersetzungstools, um zum mächtigen Angreifer zu werden.

  3. KI-Angreifer agieren grundlegend anders als Menschen

    KI-Hacker arbeiten 24/7 ohne Ermüdung, nutzen systematisch jede entdeckte Schwachstelle aus und können gleichzeitig Hunderte von Angriffsvektoren prüfen – mit perfektem Erinnerungsvermögen. In Tests nutzte KI ein einziges Zugangskonto, um auf alle 48 Datenbanken eines Netzwerks zuzugreifen – eine Gründlichkeit, die kein Mensch erreichen würde.

  4. Herkömmliche Sicherheitsmaßnahmen stoppen KI-Angriffe nicht

    Signaturbasierte Erkennung versagt bei KI, die dynamisch neue Angriffsmuster generiert. Sicherheitsoperationen im menschlichen Tempo sind zu langsam, um maschinenschnelle Angriffe zu stoppen, die in Minuten ablaufen. Fragmentierte Sicherheitstools schaffen Transparenzlücken, die KI ausnutzt, während Analysten Schwierigkeiten haben, Alarme systemübergreifend zu korrelieren.

  5. KI-gestützte Verteidigung ist jetzt unverzichtbar

    Unternehmen müssen KI-gestützte Sicherheitsplattformen einsetzen, die Verhaltensanomalien erkennen, mit Maschinengeschwindigkeit reagieren und zentrale Transparenz bieten, um KI-Bedrohungen zu begegnen. Lösungen wie das Private Data Network von Kiteworks zeigen, wie KI-Eigenschaften, die Angriffe gefährlich machen – Geschwindigkeit, Ausdauer, Anpassungsfähigkeit – zu Verteidigungsvorteilen werden können.

Erste Ergebnisse: LLMs scheitern bei direkten Angriffen

Die ersten Resultate wirkten beruhigend. Selbst fortschrittliche LLMs schnitten schlecht ab, wenn sie direkten Kommandozeilenzugriff erhielten und Netzwerke kompromittieren sollten. In allen Testumgebungen erreichten LLMs ohne Unterstützung nur 1 % bis 30 % der Angriffspfade – sie konnten also kaum wirksame Angriffe ausführen.

Die Forscher identifizierten zwei Hauptursachen für das Scheitern: Erstens generierten LLMs viele irrelevante Befehle – 28 % bis 81 % der Versuche hatten keinen Bezug zu realistischen Angriffspfaden. Sie versuchten etwa, Zugangsdaten zu erzwingen, wo keine Dienste existierten, oder Schwachstellen in nicht vorhandenen Systemen auszunutzen.

Zweitens traten bei der Umsetzung korrekter Angriffsvektoren Probleme auf. Zwischen 9 % und 32 % der relevanten Befehle enthielten Fehler, die sie wirkungslos machten. Beispielsweise erkannte ein LLM zwar die Notwendigkeit, nach Schwachstellen zu scannen, konstruierte aber den Befehl falsch und verfehlte so das Ziel oder verwendete ungültige Parameter.

Der Game Changer: Incalmo Abstraktionsschicht

Die Einführung von Incalmo, einer hochentwickelten Abstraktionsschicht zwischen LLM und Zielumgebung, veränderte die Ergebnisse grundlegend. Anstatt Low-Level-Befehle zu generieren, können LLMs mit Incalmo aufgabenorientiert arbeiten – etwa „Netzwerk scannen“, „seitlich zu Host bewegen“ oder „Daten exfiltrieren“.

Diese Abstraktionsschicht besteht aus drei integrierten Komponenten:

  • Ein Aktionsplaner, der Aufgaben in korrekt formatierte Befehle übersetzt
  • Ein Angriffspfad-Service, der LLMs relevante Aktionen für ihre Ziele aufzeigt
  • Ein Umgebungsstatus-Service, der Netzwerkübersicht für fundierte Entscheidungen bereitstellt

Mit Incalmo kompromittierten zuvor erfolglose LLMs 9 von 10 Testumgebungen, einige durchliefen sogar den gesamten Angriffspfad. In der von Equifax inspirierten Umgebung, die ohne Unterstützung von keinem LLM kompromittiert werden konnte, gelang mehreren KI-Modellen mit der Abstraktionsschicht der Zugriff auf alle 48 Datenbanken.

Anatomie KI-gestützter Angriffe

Angriffsphasen und Fähigkeiten

Das Verständnis der KI-Angriffsausführung ist entscheidend für wirksame Abwehrmaßnahmen. Die Forschung zeigt: KI-Angreifer folgen systematischen Vorgehensweisen, ähnlich wie Advanced Persistent Threats (APTs), jedoch mit maschineller Effizienz und Ausdauer.

Aufklärung (Reconnaissance) beginnt mit der systematischen Erfassung der Netzwerktopologie durch KI. Mithilfe von Scanning-Tools identifiziert sie aktive Hosts, offene Ports und laufende Dienste. Während menschliche Angreifer gezielt Systeme auswählen, katalogisiert KI lückenlos alle auffindbaren Assets und erstellt so eine vollständige Angriffsoberfläche.

Erstzugriff (Initial Access) erfolgt durch Ausnutzen entdeckter Schwachstellen. In den Tests nutzte KI Apache Struts-Schwachstellen (CVE-2017-5638), Fehlkonfigurationen und schwache Zugangsdaten aus. Ihr Vorteil: Sie kann gleichzeitig mehrere Angriffsvektoren ausprobieren, ohne kognitive Einschränkungen wie menschliche Angreifer.

Laterale Bewegung (Lateral Movement) demonstriert die systematische Effizienz der KI. Nach dem Erstzugriff bewegt sie sich methodisch durch das Netzwerk, nutzt gefundene Zugangsdaten und Vertrauensbeziehungen. In einem Fall fand die KI SSH-Zugangsdaten auf einem Webserver und nutzte diese, um auf 48 verschiedene Datenbankserver zuzugreifen – eine Aufgabe, die Menschen überfordern würde, für KI aber kein Problem darstellt.

Privilegieneskalation (Privilege Escalation) zeigt, wie KI Systemfehlkonfigurationen erkennt und ausnutzt. Sie setzte erfolgreich sudoedit-Schwachstellen, falsch konfigurierte passwd-Dateien und andere gängige Eskalationspfade ein, um administrative Rechte auf kompromittierten Systemen zu erlangen.

Datenexfiltration (Data Exfiltration) schließt die Angriffskette ab: KI identifiziert und extrahiert vertrauliche Informationen systematisch. Anders als beim schnellen, menschlich geführten Datendiebstahl kann KI geduldig und über längere Zeit exfiltrieren – und so Detektionsschwellen umgehen, die auf menschliche Geschwindigkeit kalibriert sind.

Was KI-Angreifer unterscheidet

KI-Angreifer besitzen Eigenschaften, die sie grundlegend von menschlichen Bedrohungen unterscheiden:

  • Perfektes Erinnerungsvermögen für alle entdeckten Informationen und Versuche
  • Dauerbetrieb ohne Pausen, Ermüdung oder Konzentrationsverlust
  • Sofortige Verarbeitung und Korrelation großer Informationsmengen
  • Echtzeit-Anpassung der Strategie anhand gewonnener Erkenntnisse
  • Nahtloses Wechseln zwischen Angriffsvektoren ohne Frustration oder Vorurteile

Diese Eigenschaften, kombiniert mit systematischer Methodik, machen KI-Angreifer zu besonders effektiven Gegnern, die traditionelle Sicherheitsannahmen herausfordern.

Getestete Angriffsszenarien aus der Praxis

Die Aussagekraft der Forschung beruht auf realistischen Testszenarien. Die von Equifax inspirierte Umgebung reproduzierte dokumentierte Schwachstellen – verwundbare Apache Struts-Server, Klartext-Speicherung von Zugangsdaten und zahlreiche Datenbankserver mit sensiblen Daten. Die KI führte die gesamte Angriffskette vom Erstzugriff bis zum vollständigen Datenbankzugriff erfolgreich aus.

Das Colonial Pipeline-Szenario prüfte die Fähigkeit der KI, kritische Infrastrukturen anzugreifen. Die Umgebung umfasste IT- und OT-Netzwerke, mit Zielen in Systemen zur Steuerung physischer Prozesse. Die KI navigierte erfolgreich durch komplexe Netzwerksegmentierung und nutzte Managementschnittstellen, um kritische Kontrollsysteme zu erreichen.

Auch Standard-Unternehmensumgebungen mit typischen Architekturen – Webserver, Arbeitsplätze, Datenbanken über verschiedene Segmente – erwiesen sich als verwundbar. Die KI zeigte effektives Mapping, Asset-Identifikation und systematische Kompromittierung bis hin zum vollständigen Datenzugriff.

Warum herkömmliche Sicherheitsmaßnahmen versagen

Grenzen konventioneller Verteidigung

Traditionelle Cybersicherheitsmaßnahmen wurden für menschliche Angriffe mit menschlichem Tempo und menschlichen Begrenzungen entwickelt. Signaturbasierte Erkennungssysteme sind zwar gegen bekannte Bedrohungen wirksam, erkennen aber keine neuartigen Angriffsmuster, die KI dynamisch generiert. Sie verlassen sich auf das Erkennen spezifischer Signaturen oder Abläufe, doch KI entwickelt neue Ansätze, die statische Abwehrmechanismen umgehen.

Sicherheitsoperationen im menschlichen Tempo werden zur Schwachstelle gegenüber maschinenschnellen Angriffen. Während Analysten einzelne Alarme untersuchen, prüft KI gleichzeitig Hunderte weiterer Vektoren und probiert Möglichkeiten schneller aus, als Menschen reagieren können. In der Zeit, die für die Identifikation und Reaktion benötigt wird, hat KI bereits alternative Strategien umgesetzt.

Fragmentierte Sicherheitsinfrastrukturen schaffen Transparenzlücken, die KI gezielt ausnutzt. Unterschiedliche Tools überwachen verschiedene Netzwerkbereiche, das Zusammenführen von Ereignissen zur Identifikation komplexer Muster erfordert menschliche Analyse – ein Flaschenhals, den KI-Angreifer vollständig umgehen.

Vorteil der Abstraktionsschicht

Die zentrale Erkenntnis der Forschung geht über die Angriffsfähigkeiten der KI hinaus – sie zeigt, wie Abstraktionsschichten wie Incalmo die Lücke zwischen KI-Logik und technischer Umsetzung schließen. Das hat weitreichende Folgen für Angriff und Verteidigung. So wie Incalmo der KI half, Umsetzungsprobleme zu überwinden, könnten ähnliche Tools anspruchsvolle Angriffe auch für weniger versierte Akteure zugänglich machen.

Dieser Wandel der Zugänglichkeit verändert die Bedrohungslage grundlegend. Früher erforderten mehrstufige Netzwerkangriffe jahrelange Expertise. Mit KI und den richtigen Tools stehen diese Fähigkeiten jedem offen, der mit einem LLM interagieren kann. Die technischen Hürden, die Unternehmen bisher schützten, sind praktisch gefallen.

Herausforderung durch Geschwindigkeit und Skalierung

KI-Angreifer agieren in einem Ausmaß und mit einer Geschwindigkeit, die menschliche Verteidiger nicht erreichen können:

  • Durchgehender 24/7-Betrieb ohne Schichten oder Pausen
  • Gleichzeitige Ausführung mehrerer Angriffsvektoren
  • Echtzeit-Korrelation von Informationen und Strategieanpassung
  • Keine Alarmmüdigkeit oder Überforderung durch Datenmengen

Dieser Geschwindigkeitsvorteil schafft asymmetrische Situationen zugunsten der Angreifer. Während Sicherheitsteams Stunden oder Tage für Untersuchungen und Reaktionen benötigen, führt KI komplette Angriffsketten in Minuten aus. Sicherheitsmodelle, die auf menschlicher Analyse und Intervention beruhen, sind diesen Bedrohungen strukturell nicht gewachsen.

Der Weg zur KI-gestützten Verteidigung

Die Forschung macht deutlich: Gegen KI-gestützte Angriffe helfen nur KI-gestützte Abwehrmaßnahmen. Unternehmen benötigen Sicherheitslösungen, die mit Maschinengeschwindigkeit agieren und dennoch menschliche Kontrolle und Aufsicht ermöglichen. Das bedeutet, Systeme einzusetzen, die Verhaltensmuster erkennen, Bedrohungen in Echtzeit analysieren und adaptiv reagieren können.

Wirksame KI-Verteidigungsstrategien müssen die in der Forschung identifizierten Angriffsmuster adressieren. Während der Aufklärungsphase sollte defensive KI systematisch-unnatürliche Scanning-Muster erkennen, die KI-Angreifer von legitimer Netzwerkerkundung unterscheiden. Bei lateraler Bewegung müssen Systeme die maschinelle Gründlichkeit bei der Ausnutzung von Zugangsdaten detektieren – etwa, wenn mit einem einzigen Zugang Dutzende Systeme in kurzer Zeit kompromittiert werden.

Moderne Sicherheitsplattformen integrieren diese Fähigkeiten zunehmend durch Verhaltensanalytik, Machine-Learning-Modelle und automatisierte Reaktionssysteme. Lösungen wie das Private Data Network von Kiteworks setzen auf KI, um KI-gesteuerte Angriffe zu erkennen und abzuwehren, während sie zentrale Transparenz und Kontrolle über sensible Datenbewegungen bieten.

Zukunft der KI in der Cybersicherheit

Wandelnde Bedrohungslandschaft

Die aktuelle Forschung bildet erst die Anfangsstufen der KI-Angriffsfähigkeiten ab. Mit fortschreitender Entwicklung und wachsender Verfügbarkeit ist eine rasante Weiterentwicklung zu erwarten. Künftige KI-Angriffe könnten beinhalten:

  • Fortgeschrittene Umgehungstechniken, die aus Verteidigungsreaktionen lernen
  • Dynamische Strategieanpassung auf Basis erkannter Abwehrmechanismen
  • Koordinierte Kampagnen über mehrere Unternehmen hinweg mit Echtzeit-Informationsaustausch
  • Ausgefeilte Social-Engineering-Methoden als Ergänzung zu technischen Angriffen

Das Wechselspiel zwischen Angriff und Verteidigung wird sich beschleunigen, beide Seiten nutzen fortschrittliche KI-Fähigkeiten. Unternehmen ohne KI-gestützte Abwehr laufen Gefahr, von Geschwindigkeit und Komplexität der Angriffe überrollt zu werden. Die Frage ist nicht, ob Angriffe sich weiterentwickeln, sondern wie schnell – und ob die Verteidigung Schritt hält.

Regulatorische und Compliance-Aspekte

Neue gesetzliche Vorgaben adressieren zunehmend die Herausforderungen der KI-Sicherheit. Regierungen erkennen, dass traditionelle Rahmenwerke für Bedrohungen im KI-Zeitalter unzureichend sind. Zu erwarten sind Vorgaben für:

  • KI-spezifische Sicherheitskontrollen und Konfigurationen
  • Bedrohungsmodelle, die KI-Angreifer berücksichtigen
  • Incident-Response-Prozesse für maschinenschnelle Vorfälle
  • Regelmäßige KI-Sicherheitsaudits und Assessments

Branchenspezifische KI-Sicherheitsstandards entstehen zusätzlich zu traditionellen Anforderungen. Vorreiter sind Finanzdienstleister, Gesundheitswesen und kritische Infrastrukturen. Unternehmen müssen sich auf Vorgaben einstellen, die KI-Angriffe als wahrscheinlich statt nur möglich betrachten.

Fazit: KI vom Risiko zum Schutzschild machen

Die Forschung von Carnegie Mellon und Anthropic bestätigt: KI-gestützte Cyberangriffe sind Realität, keine Zukunftsmusik. LLMs, die eigenständig komplexe, mehrstufige Angriffe mit hoher Erfolgsquote ausführen, markieren einen grundlegenden Wandel in der Sicherheitslandschaft. Unternehmen, die an traditionellen, menschenzentrierten Modellen festhalten, geraten ins Hintertreffen.

Der Weg nach vorn erfordert den Einsatz von KI-gestützten Abwehrmaßnahmen, die KI-gestützten Angriffen ebenbürtig sind. Das bedeutet, die Sicherheitsarchitektur grundlegend für KI-geprägte Umgebungen zu überdenken – statt nur weitere Tools auf bestehende Strukturen zu setzen. KI-Eigenschaften, die sie als Angreifer gefährlich machen – Geschwindigkeit, Ausdauer, Anpassungsfähigkeit – werden mit den richtigen Plattformen zum Verteidigungsvorteil. Lösungen wie das Private Data Network von Kiteworks zeigen, wie KI-basierte Verhaltensanalytik und automatisierte Reaktionsmechanismen neue Bedrohungen wirksam abwehren können.

Unternehmen müssen ihre aktuelle Sicherheit aus der Perspektive der KI-Bedrohung bewerten: Können die Abwehrmaßnahmen mit Maschinengeschwindigkeit reagieren? Bieten sie umfassende Transparenz, um KI-Aufklärung und laterale Bewegung zu erkennen? Sind sie für die Skalierung und Komplexität automatisierter Angriffe ausgelegt? Negative Antworten zeigen einen unmittelbaren Handlungsbedarf für KI-gestützte Sicherheitslösungen, die Schutz konsolidieren und gleichzeitig die nötige Agilität für neue Bedrohungen bieten.

In KI-geprägten Sicherheitsumgebungen sind die Verteidigungsmaßnahmen von gestern die Schwachstellen von heute. Erfolgreiche Unternehmen erkennen diesen Wandel und passen sich an. Ob mit Plattformen wie Kiteworks oder anderen KI-gestützten Sicherheitslösungen – die Notwendigkeit ist klar: KI-gestützte Verteidigung einführen oder Gefahr laufen, Teil der wachsenden Statistik von Datenpannen zu werden. Die Frage ist nicht mehr, ob Sie Ihre Sicherheit aufrüsten – sondern wie schnell Sie Abwehrmaßnahmen implementieren, die KI-gesteuerten Bedrohungen standhalten.

Häufig gestellte Fragen

Ja, die Forschung von Carnegie Mellon und Anthropic hat bewiesen, dass LLMs wie GPT-4 und Claude mit Tools wie Incalmo eigenständig komplexe, mehrstufige Netzwerkangriffe ausführen können – mit Erfolgsquoten von bis zu 100 %. Ohne solche Abstraktionsschichten scheitern diese KI-Modelle jedoch an der technischen Umsetzung und erreichen weniger als 30 % ihrer Angriffsziele.

KI-Angreifer arbeiten 24/7 ohne Ermüdung, prüfen gleichzeitig Hunderte von Angriffsvektoren und vergessen nie entdeckte Schwachstellen oder Zugangsdaten – in Tests nutzte KI ein einziges Zugangskonto, um systematisch auf alle 48 Datenbanken eines Netzwerks zuzugreifen. Sie passen ihre Strategien in Echtzeit an und generieren neuartige Angriffsmuster, die traditionelle signaturbasierte Sicherheitssysteme umgehen.

Unternehmen sollten KI-gestützte Abwehrmaßnahmen sofort implementieren, da die Forschung auf öffentlich verfügbaren KI-Modellen basiert, auf die jeder motivierte Angreifer heute zugreifen kann. Jeder Tag ohne maschinenschnelle Verteidigung macht Unternehmen angreifbar für Attacken, die komplette Angriffsketten in Minuten statt in Stunden oder Tagen ablaufen lassen.

Die KI nutzte erfolgreich Apache Struts-Schwachstellen (CVE-2017-5638), Fehlkonfigurationen, schwache Zugangsdaten und Privilegieneskalationslücken wie sudoedit in Testumgebungen, die realen Vorfällen wie Equifax und Colonial Pipeline nachempfunden waren. Die KI zeigte, dass sie diese Exploits zu vollständigen Netzwerkkompromittierungen verbinden kann – vom Erstzugriff über laterale Bewegung bis zur Datenexfiltration.

Traditionelle Sicherheitstools und Security Operations Center im menschlichen Tempo sind KI-Angriffen strukturell unterlegen, da sie auf bekannte Signaturen und menschliche Analysegeschwindigkeit setzen – während Analysten einen Alarm untersuchen, kann KI Dutzende alternativer Angriffsvektoren ausführen. Unternehmen benötigen KI-gestützte Plattformen wie Kiteworks, die Verhaltensanomalien erkennen, mit Maschinengeschwindigkeit reagieren und zentrale Transparenz über alle Systeme bieten, um diese Bedrohungen wirksam zu bekämpfen.

Weitere Ressourcen

Jetzt loslegen.

Es ist einfach, mit Kiteworks die gesetzliche Vorgaben einzuhalten und Risiken effektiv zu managen. Schließen Sie sich den Tausenden von Unternehmen an, die sicher sind, wie sie vertrauliche Daten zwischen Personen, Maschinen und Systemen austauschen. Beginnen Sie noch heute.

Table of Content
Teilen
Twittern
Teilen
Explore Kiteworks