KI-gesteuerte Malware: Anpassungsfähige und sich weiterentwickelnde Bedrohungen

Malware, die sich während des Angriffs selbst umschreibt. Skripte, die KI-Modelle abfragen, um der Erkennung zu entgehen. Ransomware, die sich sowohl auf Windows als auch Linux anpasst – alles angetrieben von denselben großen Sprachmodellen, mit denen wir E-Mails verfassen und Code debuggen.

wichtige Erkenntnisse

  1. Signaturbasierte Erkennung ist praktisch tot. Wenn Malware während der Ausführung LLMs abfragt, um ihren eigenen Code umzuschreiben, wird statisches Pattern Matching obsolet. Hashbasierte Blockierung und YARA-Regeln sind bereits veraltet, bevor sie fertiggestellt sind, weil die Bedrohung sich semantisch auf Abruf neu erfindet – nicht nur ihr Aussehen ändert.
  2. Datenschutz ist jetzt Ihre entscheidende Kontrollschicht. Prävention wird unsicher, wenn Bedrohungen sich schneller anpassen als Verteidigungen aktualisiert werden. Umfassende Data Governance, Verschlüsselung im ruhenden Zustand und zero trust-Architekturen bieten die verlässliche Verteidigungsschicht – richtig geschützte Daten bleiben sicher, unabhängig davon, wie ausgeklügelt oder adaptiv der Angriffsvektor ist.
  3. Die Schattenwirtschaft hat KI-Angriffswerkzeuge industrialisiert. Ein Anstieg von 223 % bei Deepfake-bezogenen Tools in Darknet-Foren zeigt, dass KI-gestützte Angriffe zur Ware geworden und leicht zugänglich sind. Wenn Malware-as-a-Service-Anbieter LLM-Integration mit gestaffelten Preisen, API-Zugang und Discord-Support anbieten, gelangen fortschrittliche Fähigkeiten zu Angreifern ohne tiefgehende technische Kenntnisse.
  4. Staatlich gesteuerte Akteure setzen KI entlang der gesamten Kill Chain ein. Chinas APT41, Irans APT42 und nordkoreanische Gruppen missbrauchen systematisch KI-Dienste für Schwachstellenanalyse, Phishing-Kampagnen, Code-Obfuskation und Data Mining. Das ist keine isolierte Spielerei – es ist die operative Integration über Aufklärung, Entwicklung, Ausführung und Exfiltration hinweg.
  5. Verhaltensbasierte Erkennung muss statische Analyse ablösen. Konzentrieren Sie sich auf Taktiken, die über verschiedene Implementierungen hinweg bestehen: Skripte, die LLM-APIs aufrufen, schnelle Obfuskationszyklen, Credential-Exfiltration zu neu erstellten Repositorys und plattformübergreifende Verschlüsselungs-Workflows. Instrumentieren Sie diese Verhaltensweisen und behandeln Sie KI-Service-Zugriffe als privilegierte Ressourcen, die Protokollierung und Freigabe erfordern.

Das ist keine Spekulation. Googles Threat Intelligence Group hat mehrere Malware-Familien dokumentiert, die LLMs während der Ausführung aktiv nutzen – ein grundlegender Wandel in der Entwicklung von Cyberbedrohungen. Die Waffengenerierung von KI ist nicht mehr theoretisch – sie ist operativ, sie verbreitet sich, und traditionelle Verteidigungen auf Basis statischer Mustererkennung versagen dagegen.

Willkommen im Zeitalter adaptiver, KI-gestützter Malware, in dem der Code im Einsatz lernt und signaturbasierte Erkennung obsolet wird.

Der Wandel: Von statischen Bedrohungen zu semantischen Gestaltwandlern

Sicherheitsverantwortliche haben seit Jahren „lebende“ Malware vorhergesagt, die sich in Echtzeit anpasst. Googles aktuelles AI Threat Tracker-Update bestätigt, dass wir diese Schwelle überschritten haben. Angreifer integrieren große Sprachmodelle direkt in ihre Malware und ermöglichen so Bedrohungen, die sich semantisch – nicht nur syntaktisch – verändern, um der Erkennung zu entgehen und ihr Verhalten an jede kompromittierte Umgebung anzupassen.

Traditionelle polymorphe Malware verändert ihr Erscheinungsbild durch Verschlüsselung oder Obfuskation. KI-gestützte Malware geht weiter: Sie fragt ein LLM während der Ausführung ab, um völlig neue Funktionen zu generieren, Logik umzuschreiben und Taktiken je nach Situation anzupassen. Man kann es sich vorstellen wie Malware mit einer Daueranweisung: „Wenn erkannt, erfinde dich neu.“

Google nennt das „Just-in-Time“-Selbstmodifikation – und das stellt Sicherheitsmodelle auf Basis von Mustererkennung und statischen Signaturen grundlegend in Frage.

Was das bedeutet: Die Angriffsfläche wächst exponentiell

Die Ergebnisse von Google GTIG bestätigen die Befürchtungen von Sicherheitsverantwortlichen: 47 % der Unternehmen nennen gegnerische Fortschritte durch generative KI als ihre wichtigste Cybersecurity-Sorge – und die Daten geben ihnen recht.

Die Auswirkungen gehen über einzelne Malware-Familien hinaus:

Traditionelle signaturbasierte Erkennung versagt, wenn sich Malware selbst umschreibt. Statische Mustererkennung kann mit Bedrohungen, die ihren Code während der Ausführung semantisch neu gestalten, nicht Schritt halten. Ihre YARA-Regeln und hashbasierte Blockierung sind veraltet, bevor sie fertig sind.

Plattformübergreifende Bedrohungen zielen gleichzeitig auf mehrere Umgebungen. Tools wie PromptLock zeigen, wie KI es Angreifern ermöglicht, adaptive Frameworks zu bauen, die betriebssystemübergreifend funktionieren – und so die Angriffsfläche, die Unternehmen schützen müssen, vervielfachen.

Datenexfiltration wird umgebungsspezifisch und schwerer zu erkennen. PromptSteal und QuietVault zeigen, wie KI maßgeschneiderte Sammlungsskripte für jedes Ziel generiert, bösartige Aktivitäten mit legitimen Vorgängen vermischt und die verhaltensbasierte Erkennung deutlich erschwert.

Auch die Schattenwirtschaft spiegelt diesen Wandel wider: Forscher dokumentieren einen Anstieg von 223 % bei Deepfake-bezogenen Tools in Darknet-Foren, während 42 % der Unternehmen erfolgreiche Social-Engineering-Angriffe mit KI-generierten Inhalten melden. Staatlich gesteuerte Akteure experimentieren nicht nur – sie missbrauchen KI-Dienste systematisch entlang der gesamten Kill Chain.

Das Data Protection-Gebot

QuietVault und PromptSteal sind besonders besorgniserregend wegen ihres ausgefeilten Ansatzes zur Datenexfiltration. Wenn Malware Sammlungsskripte dynamisch generieren und sich an die jeweilige Umgebung anpassen kann, stehen Unternehmen vor einer grundlegenden Herausforderung: Die Bedrohung entwickelt sich schneller weiter, als Verteidigungen aktualisiert werden können.

Diese Realität erfordert ein Umdenken. Wenn Prävention nicht garantiert werden kann – und mit adaptiver Malware wird das zunehmend schwierig – wird KI-gestützter Datenschutz zur entscheidenden Kontrollschicht. Umfassende Data Governance, Verschlüsselung im ruhenden Zustand und zero trust-Sicherheitsarchitekturen sind unverzichtbar, denn richtig geschützte Daten bleiben sicher, unabhängig davon, wie ausgeklügelt der Angriffsvektor ist.

Fragen, die sich Sicherheitsverantwortliche stellen sollten:

  • Wie schützen wir vertrauliche Daten, wenn Perimeter-Verteidigungen gegen adaptive Bedrohungen nicht ausreichen?
  • Wie sieht unsere Strategie aus, wenn sich Bedrohungen schneller entwickeln als unsere Erkennungsmöglichkeiten?
  • Sind wir auf KI-gestützte Angriffe vorbereitet, die gezielt auf die Datentypen und Workflows unserer Branche abzielen?

Fünf Familien, die das Spiel verändert haben

Googles Threat Intelligence Group hat mehrere Malware-Familien identifiziert, die diesen neuen KI-gestützten Ansatz demonstrieren. Jede steht für einen anderen Angriffsvektor, aber alle teilen die Kernfähigkeit: Sie rufen während der Ausführung LLMs auf, um ihre Effektivität zu steigern.

PromptFlux: Der metamorphe Dropper

PromptFlux ist ein experimenteller VBScript-Dropper, der Googles Gemini nutzt, um auf Abruf obfuskierte Skriptvarianten zu generieren. Bemerkenswert ist das „Thinking Robot“-Modul – eine Komponente, die regelmäßig Gemini abfragt, um neuen Code zu erhalten, der Antiviren-Erkennung entgeht.

Die Malware versucht Persistenz über Einträge im Autostart-Ordner und verbreitet sich lateral über Wechseldatenträger und gemappte Netzlaufwerke. Die Prompts sind sehr spezifisch und maschinenlesbar, was darauf hindeutet, dass die Entwickler auf ein wirklich metamorphes Skript hinarbeiten, das seinen eigenen Code kontinuierlich weiterentwickelt.

Obwohl PromptFlux sich noch in der frühen Entwicklung befindet und bislang keinen größeren Schaden angerichtet hat, hat Google schnell reagiert, den Gemini-API-Zugang deaktiviert und die zugehörigen Assets abgeschaltet. Die Technik ist jedoch im Umlauf – und modellunabhängig.

Verteidigungspriorität: Blockieren Sie VBScript-Ausführung, wo möglich, überwachen Sie ungewöhnliche API-Aufrufe von Scripting-Hosts und alarmieren Sie bei Änderungen am Autostart-Ordner in Kombination mit Schreibvorgängen auf Wechseldatenträger.

PromptSteal (LameHug): Dynamisches Data Mining

PromptSteal, auch als LameHug bekannt, fragt Qwen2.5-Coder-32B-Instruct über die Hugging Face API ab, um auf Abruf Windows-Befehle für System- und Dokumentensammlung zu generieren. Google berichtet über aktive Einsätze in der Ukraine – einer der ersten bestätigten operativen Einsätze von LLM-gestützter Malware in einem Konfliktgebiet.

Die Malware zeigt, wie KI-Integration die technische Einstiegshürde für ausgefeilte Datenexfiltration senkt und es Angreifern ermöglicht, maßgeschneiderte Skripte für jede Zielumgebung zu generieren.

Verteidigungspriorität: Erkennen Sie Skript-Sprawl-Muster – wiederholt kurzlebige Hilfsskripte, ungewöhnliche Kindprozesse und häufige Ausführungen in temporären Verzeichnissen. Sichern Sie Scripting-Engines mit eingeschränktem Sprachmodus und Application Control Policies ab.

FruitShell: Die Reverse Shell mit Trick

FruitShell ist eine öffentlich verfügbare PowerShell-Reverse-Shell, die Command-and-Control-Zugriff für beliebige Befehle auf kompromittierten Hosts ermöglicht. Besonders ist die defensive Raffinesse: Die Malware enthält fest codierte Prompts, die LLM-gestützte Sicherheitsanalysetools verwirren sollen.

Das zeigt, dass Angreifer mehrere Schritte vorausdenken – sie nutzen KI nicht nur zur Verbesserung ihrer Malware, sondern sabotieren aktiv KI-basierte Verteidigungen.

Verteidigungspriorität: Erzwingen Sie PowerShell-Protokollierung (Modul-, Script Block- und Transkriptions-Logging) in Ihr SIEM. Nutzen Sie AMSI-Härtung für Skript-Inspektion und blockieren Sie ausgehende Verbindungen zu neu registrierten Domains.

QuietVault: Jagd auf Entwicklergeheimnisse

QuietVault ist ein JavaScript-Credential-Stealer, der auf das Entwickler-Ökosystem abzielt – insbesondere GitHub- und NPM-Tokens. Die Malware exfiltriert erbeutete Zugangsdaten durch das Anlegen eines öffentlich zugänglichen GitHub-Repositorys – eine clevere Technik, die bösartigen Traffic mit legitimen Repository-Aktivitäten vermischt.

Noch bedenklicher: QuietVault nutzt lokale KI-CLI-Tools und Prompts, um nach weiteren Geheimnissen zu suchen – und setzt so die eigenen KI-Tools des Opfers gegen es ein.

Verteidigungspriorität: Setzen Sie kurzlebige Tokens und OIDC für CI/CD-Pipelines ein. Implementieren Sie Organisationsrichtlinien, die öffentliche Repositorys standardmäßig verhindern, und alarmieren Sie bei plötzlichen Repository-Erstellungen von Endpunkten. Verwenden Sie Credential-Scanning mit Entropie- und Regex-Erkennung.

PromptLock: Ransomware neu gedacht – plattformübergreifend

PromptLock ist ein experimenteller Ransomware-Prototyp, der Lua-Skripte nutzt, um Daten plattformübergreifend auf Windows- und Linux-Systemen zu stehlen und zu verschlüsseln. Die plattformübergreifende Fähigkeit und Skriptbasis machen sie besonders anpassungsfähig, während KI-Unterstützung individuelle Verschlüsselungsschemata und Umgehungstaktiken für jede Zielumgebung ermöglichen könnte.

Verteidigungspriorität: Üben Sie Wiederherstellungs-Drills mit unveränderlichen Backups. Erkennen Sie massenhafte Dateiänderungen betriebssystemübergreifend und beschränken Sie Skriptinterpreter durch Application Allow-Listing.

Mehr als Malware: Wie APT-Gruppen KI entlang der Kill Chain missbrauchen

Googles Bericht geht über selbstmodifizierende Malware hinaus und dokumentiert, wie staatlich unterstützte und kriminelle Akteure KI-Dienste in ihren gesamten Operationen missbrauchen. Die Ergebnisse zeigen systematischen Missbrauch bei mehreren staatlichen Akteuren:

Akteure mit China-Bezug gaben sich als Capture-the-Flag-Teilnehmer aus, um Geminis Sicherheitsfilter zu umgehen, nutzten das Modell für Schwachstellenanalyse, Phishing-Köder und Exfiltrationstools. APT41 nutzte Gemini für Code-Unterstützung und Obfuskation im OSSTUN-Framework.

Iranische Gruppen agierten besonders dreist. MuddyCoast (UNC3313) gab sich als Studenten aus, um mit Geminis Hilfe Malware zu entwickeln und zu debuggen – und legte dabei versehentlich C2-Domains und Verschlüsselungsschlüssel in Prompts offen. APT42 nutzte Gemini für Phishing-Kampagnen und entwickelte einen „Data Processing Agent“, der natürliche Sprache in SQL umwandelt, um personenbezogene Daten aus kompromittierten Datenbanken zu extrahieren.

Nordkoreanische Gruppen zeigten die Bandbreite des KI-Missbrauchs. Masan (UNC1069) nutzte Gemini für Kryptowährungsdiebstahl, mehrsprachiges Phishing und Deepfake-Köder. Pukchong (UNC4899) holte sich Unterstützung bei der Entwicklung von Code für Edge-Geräte und Browser.

In allen Fällen hat Google die zugehörigen Konten deaktiviert und die Modellsicherungen verstärkt – basierend auf den beobachteten Umgehungstechniken. Dieser schnelle Reaktionszyklus – Missbrauch erkennen, Zugang blockieren, Verteidigung härten – ist eine neue Dimension im Sicherheits-Wettrüsten.

Untergrundmärkte schwenken auf KI-Dienste um

Die Bedrohung ist nicht auf ausgefeilte APT-Gruppen beschränkt. Google-Forscher stellten wachsendes Interesse an KI-basierten Tools in englisch- und russischsprachigen Untergrundforen fest, wobei Anbieter ihre Angebote mit derselben professionellen Sprache bewerben wie legitime KI-Produkte.

Werbung hebt „Workflow-Effizienz“ und „Produktivitätssteigerung“ hervor und bietet geführtes Onboarding, gestaffelte Preise, API-Zugang und Discord-Support. Das Angebot reicht von Deepfake-Generatoren, Phishing-Content-Creators, Reconnaissance-Tools, Exploit-Research-Assistenten bis zu Malware-as-a-Service-Plattformen mit LLM-Integration.

Diese Kommodifizierung von KI-gestützten Angriffswerkzeugen senkt die technische Einstiegshürde für komplexe Operationen drastisch. Angreifer können jetzt ausgefeilte Kampagnen ohne tiefgehende Programmierkenntnisse starten, indem sie einfach Dienste abonnieren, die die Komplexität übernehmen.

Die Marktreife zeigt sich in der Angebotsstruktur – kostenlose Basisfunktionen, Premium-Abos für erweiterte Fähigkeiten und Enterprise-Pakete für vollen API-Zugang. Es spiegelt legitime SaaS-Geschäftsmodelle wider, denn funktional ist es genau das.

Was sich für Verteidiger ändert

Die unbequeme Wahrheit: Sicherheitskontrollen auf Basis statischer Mustererkennung veralten schneller, wenn Gegner ihren Code semantisch auf Abruf neu gestalten können. Verteidigungsstrategien müssen sich dem anpassen.

Verhalten und Absicht jagen, nicht Signaturen

Umfassende Skript-Telemetrie aktivieren. Aktivieren Sie PowerShell-Modul-Logging, Script Block Logging und Transkription. Nutzen Sie AMSI-Integration und Command-Line-Auditing für cscript, wscript, node und python-Interpreter. Diese Telemetriequellen zeigen Verhaltensmuster, die bestehen bleiben, auch wenn sich der Code ändert.

KI-Service-Nutzung profilieren. Legen Sie Baselines für normale LLM-API-Aufrufe aus Ihrer Umgebung fest. Alarmieren Sie, wenn Scripting-Engines oder Nicht-Entwickler-Hosts KI-Modelle abfragen – besonders in Kombination mit Obfuskation oder auffälligen Ausführungsmustern.

Obfuskationszyklen erkennen. Markieren Sie kurzzeitige Wellen von Skript-Regeneration, plötzliche Anstiege bei Base64-Codierung und ungewöhnliche Codierungs-Pipelines. Diese Muster deuten auf adaptive Malware hin, die sich selbst umschreibt.

Modellzugriffe als privilegierte Ressourcen behandeln

Ausgehenden Traffic zu KI-Diensten kontrollieren. Beschränken Sie ausgehende Verbindungen auf zugelassene LLM-Endpunkte mit Next-Gen-Firewalls oder Secure Web Gateways. Setzen Sie CASB-Lösungen ein, um Prompts und Ausgaben zu prüfen, wo es die Unternehmensrichtlinie erlaubt.

KI-Tools mit Least-Privilege-Prinzip absichern. Nutzen Sie Application Allow-Listing für KI-CLIs und SDKs. Binden Sie diese an autorisierte Anwender und setzen Sie Geräteanforderungen durch, bevor Zugriffskontrollen gewährt werden.

KI-Interaktionen auditieren. Protokollieren Sie bei genehmigter KI-Nutzung Prompts und Antworten mit angemessenen Datenschutzmaßnahmen. Suchen Sie nach verdächtigen Code-Generierungsanfragen, Prompt-Injection-Versuchen oder Abfragen nach Umgehungstechniken.

Entwickler-Ökosysteme absichern

QuietVaults Angriff auf Entwickler-Zugangsdaten zeigt eine kritische Angriffsfläche. Entwickler haben privilegierten Zugriff auf Code-Repositorys, Build-Systeme und Produktionsumgebungen – ihre Workstations sind besonders wertvolle Ziele.

Kurzlebige Zugangsdaten einsetzen. Drehen Sie Geheimnisse regelmäßig und bevorzugen Sie Workload-Identity-Federation statt statischer Tokens. Nutzen Sie OIDC für CI/CD-Pipelines, um dauerhafte Zugangsdaten zu vermeiden.

Repository-Richtlinien durchsetzen. Verbieten Sie standardmäßig öffentliche Repositorys auf Organisationsebene. Überwachen Sie plötzliche öffentliche Repository-Erstellungen und ungewöhnliche git-push-Aktivitäten von Endpunkten statt von Build-Servern.

Pre-Commit-Scanning einführen. Erzwingen Sie automatisiertes Secret-Scanning und statische Analyse vor Code-Merges. Blockieren Sie Commits, die Zugangsdaten, API-Keys oder Muster einführen, die Authentifizierung schwächen.

Interpreter und Hilfsruntimes absichern

Application Control durchsetzen. Setzen Sie Windows Defender Application Control oder AppLocker auf Windows-Systemen ein. Implementieren Sie Ausführungskontrollen auf macOS und Linux mit den passenden Frameworks.

Eingeschränkte Sprachmodi nutzen. Konfigurieren Sie PowerShell Constrained Language Mode und Just Enough Administration für privilegierte Vorgänge. Das reduziert die Angriffsfläche, indem verfügbare Sprachfunktionen für Skripte eingeschränkt werden.

Skriptinventare pflegen. Erstellen und erzwingen Sie Allow-Lists für signierte, genehmigte Skripte. Blockieren Sie die Ausführung unsignierter Skripte, sofern es die geschäftlichen Anforderungen erlauben.

Resilienz auf schnellere Anpassung ausrichten

Wiederherstellung nach Ransomware-Angriffen üben. Messen und optimieren Sie Wiederherstellungszeiten und Backup-Abdeckung. Speichern Sie Backups mit Unveränderlichkeitsgarantie und separaten Zugangsdaten. Führen Sie Tabletop-Übungen durch, die davon ausgehen, dass Angreifer sich schneller anpassen als Ihre Erkennung.

Segmentierung pragmatisch umsetzen. Verabschieden Sie sich von flachen Netzwerkarchitekturen. Segmentieren Sie nach Geschäftsbereichen und potenziellem Schadensradius. Begrenzen Sie laterale Dateioperationen und verlangen Sie Authentifizierung für Ost-West-Verkehr.

Taktische Erkennungen schreiben. Konzentrieren Sie sich bei der Detection-Entwicklung auf Taktiken statt auf spezifische Malware-Familien oder Hashwerte. Schreiben Sie Regeln wie „LLM-gestützte Codegenerierung in Skripten“ oder „Token-Exfiltration in neu erstellte Repositorys“, die über Varianten hinweg wirksam bleiben.

Auswirkungen auf Policy, Beschaffung und Engineering

Sicherheitspolitik

Behandeln Sie KI-Nutzung wie jede andere vertrauliche Integration. Definieren Sie zugelassene Modelle und Anbieter, legen Sie Aufbewahrungsanforderungen fest, definieren Sie Protokollierungserwartungen und ziehen Sie klare Grenzen. Verbieten Sie ausdrücklich den Einsatz von KI für Code-Obfuskation oder Umgehung von Sicherheitskontrollen.

Beschaffungsfragen

Fragen Sie bei der Bewertung von Anbietern mit KI-Integration, wie sie Funktionen absichern, Nutzerinteraktionen protokollieren, Prompt-Injection verhindern und API-Missbrauch überwachen. Fordern Sie vertragliche Zusagen zur Missbrauchsprävention.

Engineering-Verantwortung

Stellen Sie robuste Event-Streams für KI-Funktionen bereit – Prompt-IDs, API-Key-Nutzung, Interaktionsprotokolle pro Host. Security-Operations-Teams benötigen diese Telemetrie, um gezielt zu jagen und präzise zu blockieren, ohne legitime Workflows zu stören.

Was Google getan hat (und was das bedeutet)

Google hat identifizierte missbräuchliche Konten und Gemini-API-Keys deaktiviert und anschließend die Schutzmechanismen gegen die von GTIG beobachteten Umgehungen aktualisiert. Das erhöht die Kosten für Angreifer, die Google-Dienste nutzen – aber die Techniken lassen sich auf andere LLM-Anbieter und selbst gehostete Modelle übertragen.

Das Fazit: Bauen Sie Ihre Verteidigung nicht auf die Kontrollen eines einzelnen Anbieters. Rechnen Sie mit Gegnern, die das Modell wechseln oder eigene betreiben. Ihre Erkennungen müssen unabhängig davon funktionieren, welchen KI-Service die Malware nutzt.

Adaptive Gegner erfordern adaptive Verteidigung

Malware, die während der Ausführung KI-Modelle abfragt, ist mehr als ein inkrementeller Fortschritt. Es ist ein Kategorienwechsel, der signaturbasierte Erkennung und statische Analyse zunehmend wirkungslos macht gegen Bedrohungen, die sich semantisch auf Abruf neu erfinden können.

Die Verteidigungsreaktion erfordert grundlegende Änderungen im Ansatz:

Instrumentieren Sie Verhaltensweisen, die über Implementierungen hinweg bestehen. Skripte, die Modell-APIs aufrufen. Schnelle Code-Regenerationszyklen. Entdeckung von Entwickler-Zugangsdaten mit anschließender Exfiltration in neu erstellte öffentliche Repositorys. Plattformübergreifende Verschlüsselungs-Workflows in portablen Sprachen. Diese taktischen Muster bleiben erkennbar, auch wenn sich der Code ändert.

Behandeln Sie KI-Datenschutz als kritische Kontrollschicht. Wenn Prävention gegen adaptive Bedrohungen unsicher wird, sind umfassende Data Governance, Verschlüsselung im ruhenden Zustand und zero trust-Sicherheitsarchitekturen Ihre verlässliche Verteidigung. Richtig geschützte Daten bleiben sicher, unabhängig davon, wie sich der Angriff entwickelt.

Machen Sie LLM-Zugriffe zu privilegierten Ressourcen. Protokollieren und genehmigen Sie KI-Service-Nutzung wie privilegierte Zugangsdaten. Konzentrieren Sie die Erkennung auf Taktiken statt auf einzelne Malware-Samples, um die Wirksamkeit bei sich entwickelnden Bedrohungen zu erhalten.

Googles Threat Intelligence Group hat das Playbook geliefert. Die dokumentierten Familien sind nicht theoretisch – sie sind aktiv im Umlauf, die Techniken verbreiten sich in Untergrundmärkten und APT-Toolkits, und die Schattenwirtschaft verzeichnet einen Anstieg von 223 % bei KI-gestützten Angriffswerkzeugen.

Die Frage ist nicht, ob KI-gestützte Malware zum Standard wird. Sie ist es bereits. Die Frage ist, ob Ihr Unternehmen seine KI-Datenschutzstrategie und Erkennungsfähigkeiten anpasst, bevor Angreifer diese Techniken im großen Stil gegen Ihre spezifische Umgebung einsetzen.

Häufig gestellte Fragen

KI-gestützte Malware integriert große Sprachmodelle während der Ausführung, um Code dynamisch umzuschreiben, Obfuskation zu generieren und Taktiken in Echtzeit anzupassen. Anders als traditionelle polymorphe Malware, die nur das Erscheinungsbild ändert, fragen KI-gestützte Bedrohungen wie PromptFlux und PromptSteal LLMs während des Angriffs ab, um ihre Funktionalität semantisch neu zu gestalten – wodurch signaturbasierte Erkennung unwirksam wird.

Nein, Just-in-Time-Selbstmodifikation ist modellunabhängig und funktioniert mit jedem LLM-Anbieter. Während Google den Missbrauch von Gemini identifiziert und die zugehörigen Konten deaktiviert hat, können Angreifer auf OpenAI, Anthropic, Open-Source-Modelle wie Llama oder selbst gehostete Alternativen umsteigen. Verteidigungen müssen sich auf Verhaltenssignale konzentrieren – Skripte, die beliebige KI-Dienste abfragen, schnelle Code-Regeneration, Credential-Exfiltration – statt auf die Blockierung bestimmter Anbieter.

Googles Threat Intelligence Group hat fünf aktive Familien identifiziert: PromptFlux (VBScript-Dropper mit Gemini), PromptSteal/LameHug (Data Miner im Einsatz in der Ukraine), FruitShell (PowerShell-Reverse-Shell), QuietVault (JavaScript-Credential-Stealer für GitHub/NPM-Tokens) und PromptLock (plattfomübergreifender Ransomware-Prototyp). Außerdem missbrauchen APT-Gruppen wie Chinas APT41, Irans APT42 sowie die nordkoreanischen Akteure Masan und Pukchong KI-Dienste in ihren Operationen.

Setzen Sie auf verhaltensbasierte Erkennung statt auf Signaturen: Überwachen Sie Skripte, die LLM-APIs aufrufen, erkennen Sie schnelle Obfuskationszyklen, alarmieren Sie bei Credential-Exfiltration zu neu erstellten Repositorys und instrumentieren Sie plattformübergreifende Verschlüsselungsmuster. Behandeln Sie KI-Service-Zugriffe als privilegierte Ressourcen mit Protokollierungspflicht, setzen Sie Application Control für Interpreter durch und priorisieren Sie KI-Datenschutz durch Verschlüsselung im ruhenden Zustand und zero trust-Sicherheitsarchitekturen, da richtig geschützte Daten unabhängig vom Angriffsgrad sicher bleiben.

Staatliche Bedrohungsgruppen missbrauchen KI systematisch über den gesamten Angriffszyklus hinweg, nicht nur für Malware-Entwicklung. Chinas APT41 nutzt KI zur Code-Obfuskation im OSSTUN-Framework, Irans APT42 entwickelte einen „Data Processing Agent“, der natürliche Sprache in SQL für Data Mining umwandelt, und nordkoreanische Gruppen setzen KI für Kryptowährungsdiebstahl, mehrsprachiges Phishing und Deepfake-Erstellung ein. Google hat diese Konten deaktiviert und Schutzmaßnahmen verstärkt, aber die Techniken sind auf andere Anbieter übertragbar.

Beides stellt ernste Bedrohungen dar, aber KI-unterstützte Angreifer sind aktuell das größere Risiko. Während selbstmodifizierende Malware wie PromptFlux noch experimentell ist, zeigen der Anstieg von 223 % bei KI-gestützten Angriffswerkzeugen in Untergrundforen und die 42%ige Erfolgsquote von KI-gestütztem Social Engineering, dass die gesenkte technische Einstiegshürde für ausgefeilte Angriffe sofort mehr Unternehmen betrifft. Langfristig gilt: Setzen Sie auf verhaltensbasierte Erkennung und KI-Datenschutzstrategien, die gegen beide Bedrohungskategorien wirksam bleiben.

Jetzt loslegen.

Es ist einfach, mit Kiteworks die gesetzliche Vorgaben einzuhalten und Risiken effektiv zu managen. Schließen Sie sich den Tausenden von Unternehmen an, die sicher sind, wie sie vertrauliche Daten zwischen Personen, Maschinen und Systemen austauschen. Beginnen Sie noch heute.

Table of Content
Teilen
Twittern
Teilen
Explore Kiteworks