
AI kan nu uw netwerk hacken: wat het nieuwste onderzoek onthult
Het begin van AI-gedreven cyberoorlogsvoering
Recent onderzoek van Carnegie Mellon University en Anthropic toont aan dat Large Language Models (LLM’s) autonoom complexe meerfasige netwerk-aanvallen kunnen uitvoeren en met minimale menselijke tussenkomst bedrijfsomgevingen succesvol kunnen compromitteren. Deze ontwikkeling verandert fundamenteel hoe organisaties cyberbeveiliging moeten benaderen.
Traditioneel vereisten complexe cyberaanvallen bekwame menselijke operators die methodisch netwerken onderzochten, kwetsbaarheden identificeerden en hun aanval strategieën zorgvuldig uitvoerden. Deze dynamiek verandert. Huidige AI-modellen, in combinatie met de juiste tools, kunnen menselijke aanvalscapaciteiten evenaren of zelfs overtreffen, terwijl ze continu opereren zonder vermoeidheid of menselijke beperkingen.
De toegankelijkheid van deze mogelijkheden brengt nieuwe uitdagingen met zich mee. Het uitvoeren van meerfasige netwerk-inbraken vereiste voorheen uitgebreide ervaring en technische expertise. Het onderzoek laat echter zien dat LLM’s, uitgerust met een abstractietool genaamd Incalmo, succespercentages tussen de 48% en 100% behaalden in geteste omgevingen—resultaten die onmiddellijke aandacht van beveiligingsprofessionals vereisen.
Deze verschuiving dwingt organisaties hun beveiligingsstrategieën te heroverwegen. Traditionele verdedigingen, ontworpen voor aanvallen op menselijk tempo, blijken onvoldoende tegen AI-gedreven bedreigingen die continu opereren, zich dynamisch aanpassen en complexe aanvalreeksen uitvoeren zonder menselijke beperkingen.
Het onderzoek begrijpen: wanneer AI de aanvaller wordt
Reikwijdte en methodologie van het onderzoek
Het gezamenlijke onderzoek van Carnegie Mellon University en Anthropic biedt een van de meest uitgebreide evaluaties van offensieve LLM-capaciteiten tot nu toe. Onderzoekers testten toonaangevende AI-modellen—waaronder GPT-4, Claude en Google’s Gemini-familie—in 10 zorgvuldig ontworpen netwerkomgevingen die echte bedrijfsarchitecturen weerspiegelen.
De testomgevingen varieerden van 25 tot 50 hosts en omvatten scenario’s gebaseerd op gedocumenteerde datalekken, waaronder het Equifax-incident en de Colonial Pipeline-aanval. Elke omgeving had realistische netwerk-topologieën, kwetsbare services en veelvoorkomende bedrijfsfouten in configuratie. Het doel was eenvoudig: bepalen of AI autonoom complexe, meerfasige aanvallen kon uitvoeren die normaal gesproken bekwame menselijke operators vereisen.
Belangrijkste inzichten
-
AI kan nu autonoom bedrijfsnetwerken hacken
Onderzoek van Carnegie Mellon en Anthropic bewijst dat LLM’s complexe meerfasige netwerk-aanvallen kunnen uitvoeren met succespercentages tot 100% wanneer ze over de juiste tools beschikken. Dit is geen theorie—het gebeurt nu al met openbaar beschikbare AI-modellen die voor iedereen toegankelijk zijn.
-
De abstractielaag veranderde alles
Terwijl LLM’s aanvankelijk faalden bij hackpogingen (minder dan 30% succes), maakte de introductie van Incalmo—een tool die concepten op hoog niveau vertaalt naar technische commando’s—het mogelijk om 9 van de 10 testnetwerken te compromitteren. Dit toont aan dat AI geen diepgaande technische kennis nodig heeft, maar met de juiste vertaaltools een geduchte aanvaller wordt.
-
AI-aanvallers werken fundamenteel anders dan mensen
AI-hackers werken 24/7 zonder vermoeidheid, benutten systematisch elke ontdekte kwetsbaarheid en kunnen gelijktijdig honderden aanvalsvectoren onderzoeken, terwijl ze alle informatie perfect onthouden. In tests gebruikte AI één set inloggegevens om toegang te krijgen tot alle 48 databases in een netwerk—een machineachtige grondigheid die geen mens kan evenaren.
-
Traditionele beveiligingsmaatregelen kunnen AI-aanvallen niet stoppen
Detectie op basis van signatures faalt tegen door AI dynamisch gegenereerde aanvalspatronen, en beveiligingsoperaties op menselijk tempo zijn te traag om machine-snelle aanvallen te stoppen die binnen minuten plaatsvinden. Gefragmenteerde beveiligingstools creëren zichtbaarheidsgaten die AI uitbuit, terwijl menselijke analisten moeite hebben om meldingen over systemen heen te correleren.
-
AI-gedreven verdediging is nu essentieel, niet optioneel
Organisaties moeten AI-versterkte beveiligingsplatformen implementeren die gedragsafwijkingen kunnen detecteren, reageren op machine-snelheid en eenheid van zichtbaarheid bieden om AI-bedreigingen tegen te gaan. Oplossingen zoals Kiteworks’ Private Data Network tonen aan hoe AI-eigenschappen die aanvallen gevaarlijk maken—snelheid, volharding, aanpassingsvermogen—kunnen worden omgezet in verdedigende voordelen.
Initiële bevindingen: LLM’s hebben moeite met directe aanvallen
De eerste resultaten leken hoopgevend. Wanneer ze directe command-line toegang kregen en werden geïnstrueerd om netwerken te compromitteren, presteerden zelfs geavanceerde LLM’s slecht. In alle testomgevingen bereikten niet-ondersteunde LLM’s slechts 1% tot 30% van de aanvalsgrafiek-staten—feitelijk faalden ze in het uitvoeren van betekenisvolle aanvallen.
Onderzoekers identificeerden twee primaire faalmodi. Ten eerste genereerden LLM’s talloze irrelevante commando’s—28% tot 81% van de pogingen had geen betrekking op haalbare aanvalspaden. Ze probeerden bijvoorbeeld brute force-aanvallen op inloggegevens waar geen services bestonden of kwetsbaarheden uit te buiten in niet-bestaande systemen.
Ten tweede, wanneer LLM’s de juiste aanvalsvectoren identificeerden, bleek de uitvoering lastig. Tussen de 9% en 32% van de relevante commando’s bevatte fouten die ze ineffectief maakten. Zo kon een LLM de noodzaak herkennen om op kwetsbaarheden te scannen, maar het commando verkeerd opbouwen, waardoor doelen werden gemist of ongeldige parameters werden gebruikt.
De gamechanger: Incalmo abstractielaag
De introductie van Incalmo, een abstractielaag tussen de LLM en de doelomgeving, veranderde de uitkomsten drastisch. In plaats van dat LLM’s low-level shell-commando’s moesten genereren, stelt Incalmo ze in staat te werken met taken op hoog niveau zoals “scan netwerk”, “verplaats lateraal naar host” of “exfiltreer data”.
Deze abstractielaag bestaat uit drie geïntegreerde componenten:
- Een actieplanner die intenties op hoog niveau vertaalt naar correct geformatteerde commando’s
- Een aanvalsgrafiek-service die LLM’s helpt relevante acties te identificeren voor hun doelen
- Een omgevingstoestand-service die netwerkbewustzijn behoudt voor geïnformeerde besluitvorming
Met Incalmo compromitteerden voorheen onsuccesvolle LLM’s 9 van de 10 testomgevingen, waarbij meerdere een volledige aanvalsgrafiek doorliepen. De door Equifax geïnspireerde omgeving, die zonder hulp door geen enkele LLM kon worden gecompromitteerd, zag meerdere AI-modellen succesvol toegang krijgen tot alle 48 databases via de abstractielaag.
De anatomie van AI-gedreven aanvallen
Aanvalsstadia en capaciteiten
Het begrijpen van de uitvoering van AI-aanvallen is essentieel voor het ontwikkelen van effectieve verdediging. Het onderzoek toont aan dat AI-aanvallers systematische benaderingen volgen vergelijkbaar met advanced persistent threats (APT’s), maar met machine-efficiëntie en volharding.
Reconnaissance begint met AI die systematisch de netwerk-topologie in kaart brengt. Met scanningtools identificeert AI actieve hosts, open poorten en draaiende services. In tegenstelling tot menselijke aanvallers die zich op specifieke systemen richten, catalogiseert AI elk vindbaar asset, waardoor een volledige inventaris van het aanvalsoppervlak ontstaat.
Initial Access omvat het uitbuiten van ontdekte kwetsbaarheden. In tests maakte AI misbruik van Apache Struts-kwetsbaarheden (CVE-2017-5638), verkeerd geconfigureerde services en zwakke inloggegevens. Het voordeel van AI ligt in het gelijktijdig proberen van meerdere aanvalsvectoren zonder de cognitieve beperkingen van menselijke operators.
Lateral Movement toont de systematische efficiëntie van AI. Na de initiële compromittering beweegt AI methodisch door netwerken via gevonden inloggegevens en vertrouwensrelaties. In één geval vond AI SSH-inloggegevens op een webserver en gebruikte deze om toegang te krijgen tot 48 verschillende databaseservers—een taak die menselijke operators zou uitputten, maar voor AI geen uitdaging vormt.
Privilege Escalation laat zien dat AI in staat is systeemfouten te identificeren en uit te buiten. De AI gebruikte succesvol sudoedit-kwetsbaarheden, verkeerd geconfigureerde passwd-bestanden en andere veelvoorkomende escalatievectoren om administratieve toegang te verkrijgen op gecompromitteerde systemen.
Data Exfiltration voltooit de aanvalsketen, waarbij AI systematisch gevoelige informatie identificeert en extraheert. In tegenstelling tot snelle, door mensen geleide datadiefstal, kan AI geduldig en langdurig exfiltratiecampagnes uitvoeren die mogelijk detectiedrempels ontwijken die zijn afgestemd op menselijke snelheid.
Wat maakt AI-aanvallers anders
AI-aanvallers hebben unieke kenmerken die ze onderscheiden van menselijke dreigingen:
- Perfect geheugen van alle ontdekte informatie en eerdere pogingen
- Continue werking zonder pauzes, vermoeidheid of concentratieverlies
- Directe verwerking en correlatie van enorme hoeveelheden informatie
- Realtime strategie-aanpassing op basis van ontdekte intelligentie
- Naadloos schakelen tussen aanvalsvectoren zonder frustratie of vooringenomenheid
Deze kenmerken, gecombineerd met een systematische methodologie, maken AI-aanvallers bijzonder effectief en vormen een uitdaging voor traditionele beveiligingsveronderstellingen.
Geteste scenario’s uit de praktijk
De validiteit van het onderzoek komt voort uit realistische testscenario’s. De door Equifax geïnspireerde omgeving repliceerde gedocumenteerde datalek-condities—kwetsbare Apache Struts-servers, opslag van inloggegevens in platte tekst en talloze databaseservers met gevoelige data. AI voerde met succes de volledige aanvalsketen uit van initiële compromittering tot volledige database-toegang.
Het door Colonial Pipeline geïnspireerde scenario testte de mogelijkheden van AI om kritieke infrastructuur aan te vallen. Deze omgeving omvatte zowel IT- als OT-netwerken, met doelen gericht op systemen die fysieke processen aansturen. AI navigeerde succesvol door complexe netwerksegmentatie en maakte misbruik van beheerinterfaces om kritieke controlesystemen te bereiken.
Standaard bedrijfsomgevingen met typische architecturen—webservers, werkstations van medewerkers en databases over netwerksegmenten—bleken even kwetsbaar. AI toonde effectieve mapping, asset-identificatie en systematische compromittering die leidde tot volledige data-toegang.
Waarom traditionele beveiligingsmaatregelen tekortschieten
Beperkingen van conventionele verdediging
Traditionele cyberbeveiligingsmaatregelen zijn ontworpen voor door mensen aangedreven aanvallen op menselijk tempo en met menselijke beperkingen. Detectiesystemen op basis van signatures zijn effectief tegen bekende dreigingen, maar kunnen geen nieuwe aanvalspatronen identificeren die AI dynamisch genereert. Deze systemen zijn afhankelijk van het herkennen van specifieke signatures of reeksen, maar AI creëert nieuwe benaderingen die statische verdediging omzeilen.
Beveiligingsoperaties op menselijk tempo worden kwetsbaarheden tegenover machine-snelle aanvallen. Terwijl analisten één melding onderzoeken, onderzoeken AI-aanvallers gelijktijdig honderden extra vectoren en doorlopen ze mogelijkheden sneller dan mensen kunnen reageren. In de tijd die nodig is voor menselijke dreigingsidentificatie en reactie, heeft AI mogelijk al alternatieve strategieën uitgevoerd.
Gefragmenteerde beveiligingsinfrastructuren creëren zichtbaarheidsgaten die AI gemakkelijk uitbuit. Met verschillende tools die diverse netwerkaspecten monitoren, vereist het correleren van gebeurtenissen om complexe patronen te identificeren menselijke analyse—wat knelpunten creëert die AI-aanvallers volledig vermijden.
Het voordeel van de abstractielaag
Het belangrijkste inzicht uit het onderzoek gaat verder dan de aanvalscapaciteiten van AI—het laat zien hoe abstractielagen zoals Incalmo de kloof overbruggen tussen AI-redenering en technische uitvoering. Deze ontwikkeling heeft grote gevolgen voor zowel aanval als verdediging. Net zoals Incalmo AI hielp om implementatieproblemen te overwinnen, kunnen soortgelijke tools complexe aanvallen toegankelijk maken voor minder bekwame actoren.
Deze verschuiving in toegankelijkheid verandert het dreigingslandschap fundamenteel. Voorheen vereisten meerfasige netwerk-aanvallen diepgaande expertise, opgebouwd over jaren. Met AI en de juiste tooling worden deze mogelijkheden beschikbaar voor iedereen die met een LLM kan werken. De technische barrières die organisaties beschermden, zijn feitelijk geslonken.
Snelheid- en schaaluitdaging
AI-aanvallers opereren op schaal en snelheid die niet te evenaren zijn door menselijke verdedigers:
- Continue 24/7 werking zonder diensten of pauzes
- Gelijktijdige uitvoering van aanvallen via meerdere vectoren
- Realtime informatiecorrelatie en strategie-aanpassing
- Geen meldingsmoeheid of cognitieve overbelasting door hoeveelheid data
Dit snelheidsverschil creëert asymmetrische scenario’s die aanvallers bevoordelen. Terwijl beveiligingsteams uren of dagen nodig hebben voor incidentonderzoek en reactie, voert AI volledige aanvalsketens uit in minuten. Beveiligingsmodellen die afhankelijk zijn van menselijke analyse en interventie blijken structureel ontoereikend tegen deze bedreigingen.
De weg naar AI-gedreven verdediging
Het onderzoek maakt duidelijk dat verdedigen tegen AI-gedreven aanvallen AI-gedreven verdediging vereist. Organisaties hebben beveiligingsoplossingen nodig die op machine-snelheid kunnen opereren, terwijl ze menselijke controle en toezicht behouden. Dit betekent systemen implementeren die gedragsherkenning, realtime dreigingsanalyse en adaptieve responsmechanismen mogelijk maken.
Effectieve AI-verdedigingsstrategieën moeten de specifieke aanvalspatronen aanpakken die in het onderzoek zijn geïdentificeerd. Tijdens de verkenningsfase moet defensieve AI onnatuurlijk systematische scanpatronen herkennen die AI-aanvallers onderscheiden van legitieme netwerkverkenning. Voor laterale beweging moeten systemen de machineachtige grondigheid van credential-exploitatie detecteren—zoals het gebruik van één set inloggegevens om tientallen systemen snel achter elkaar te benaderen.
Moderne beveiligingsplatformen beginnen deze mogelijkheden te integreren via gedragsanalyse, machine learning-modellen en geautomatiseerde responsystemen. Oplossingen zoals Kiteworks’ Private Data Network zijn hiervan een voorbeeld, waarbij AI wordt ingezet om AI-gedreven aanvallen te detecteren en tegen te gaan, terwijl gecentraliseerd zicht en controle over gevoelige datastromen behouden blijft.
Toekomst van AI in cyberbeveiliging
Een veranderend dreigingslandschap
Huidig onderzoek vertegenwoordigt vroege stadia van AI-aanvalscapaciteiten. Naarmate modellen geavanceerder worden en de toegankelijkheid toeneemt, zal de evolutie van mogelijkheden snel gaan. Toekomstige AI-aanvallen kunnen bevatten:
- Geavanceerde ontwijking door te leren van defensieve reacties
- Dynamische strategie-aanpassing op basis van aangetroffen verdediging
- Gecoördineerde campagnes over meerdere organisaties met realtime Threat Intelligence
- Complexe social engineering als aanvulling op technische aanvallen
De dynamiek tussen aanval en verdediging zal versnellen, waarbij beide zijden profiteren van voortschrijdende AI-mogelijkheden. Organisaties zonder AI-versterkte verdediging riskeren overweldigd te worden door de snelheid en complexiteit van aanvallen. De vraag is niet óf aanvallen geavanceerder worden, maar hoe snel en of verdediging het tempo kan bijhouden.
Regelgeving en compliance-overwegingen
Opkomende regelgeving richt zich steeds vaker op AI-beveiligingsuitdagingen. Overheden erkennen dat traditionele kaders onvoldoende zijn voor AI-tijdperk bedreigingen. Verwacht verplichtingen voor:
- AI-specifieke beveiligingsmaatregelen en configuraties
- Threat modeling met AI-aanvaller veronderstellingen
- Incidentresponsprocedures voor gebeurtenissen op machine-snelheid
- Regelmatige AI-beveiligingsbeoordelingen en audits
Sectorspecifieke AI-beveiligingsstandaarden ontwikkelen zich verder dan traditionele vereisten. De financiële sector, zorgprocessen en infrastructuur lopen hierin voorop. Organisaties moeten zich voorbereiden op regelgeving die AI-aanvallen als waarschijnlijk beschouwt in plaats van mogelijk.
Conclusie: AI van bedreiging tot schild maken
Onderzoek van Carnegie Mellon en Anthropic bevestigt dat AI-gedreven cyberaanvallen realiteit zijn, geen toekomstscenario. LLM’s die autonoom complexe meerfasige aanvallen uitvoeren met hoge slagingspercentages betekenen een fundamentele verschuiving in het beveiligingslandschap. Organisaties die vasthouden aan traditionele, mensgerichte modellen lopen aanzienlijke achterstand op.
De weg vooruit vereist het omarmen van AI-versterkte verdediging die AI-versterkte aanvallen kan evenaren. Dit vraagt om een fundamentele heroverweging van beveiligingsarchitectuur voor AI-omgevingen, in plaats van het toevoegen van tools aan bestaande stacks. AI-eigenschappen die het gevaarlijk maken als aanvaller—snelheid, volharding, aanpassingsvermogen—worden met de juiste platforms verdedigende voordelen. Oplossingen zoals Kiteworks’ Private Data Network tonen aan hoe AI-gedreven gedragsanalyse en geautomatiseerde respons effectief deze nieuwe dreigingen kunnen tegengaan.
Organisaties moeten hun huidige beveiliging evalueren vanuit het perspectief van AI-bedreigingen: Kunnen verdedigingen op machine-snelheid opereren? Bieden ze volledige zichtbaarheid om AI-verkenning en laterale beweging te detecteren? Zijn ze ontworpen voor geautomatiseerde aanvalsschaal en complexiteit? Negatieve antwoorden wijzen op een directe noodzaak voor AI-gedreven beveiligingsoplossingen die bescherming centraliseren en tegelijk de flexibiliteit behouden om zich aan te passen aan evoluerende dreigingen.
In beveiligingsomgevingen waar AI aanwezig is, zijn de verdedigingen van gisteren de kwetsbaarheden van vandaag. Succesvolle organisaties herkennen deze verschuiving en passen zich aan. Of het nu via platforms als Kiteworks is of andere AI-versterkte beveiligingsoplossingen, de opdracht blijft duidelijk: omarm AI-gedreven verdediging of loop het risico deel uit te maken van de groeiende datalekstatistieken. De keuze is niet langer óf u uw beveiliging moet upgraden—het gaat erom hoe snel u verdediging kunt implementeren die AI-gedreven bedreigingen aankan.
Veelgestelde vragen
Ja, onderzoek van Carnegie Mellon en Anthropic heeft aangetoond dat LLM’s zoals GPT-4 en Claude autonoom complexe meerfasige netwerk-aanvallen kunnen uitvoeren wanneer ze beschikken over tools zoals Incalmo, met succespercentages tot 100%. Zonder zulke abstractielagen hebben deze AI-modellen echter moeite met technische implementatie en behalen ze minder dan 30% van hun aanvaldoelstellingen.
AI-aanvallers werken 24/7 zonder vermoeidheid, kunnen gelijktijdig honderden aanvalsvectoren onderzoeken en vergeten nooit ontdekte kwetsbaarheden of inloggegevens—in tests gebruikte AI één set credentials om systematisch alle 48 databases in een netwerk te benaderen. Ze passen strategieën ook realtime aan en genereren nieuwe aanvalspatronen die traditionele signature-gebaseerde beveiligingssystemen omzeilen.
Organisaties moeten AI-gedreven verdediging direct implementeren, aangezien het onderzoek gebruikmaakte van openbaar beschikbare AI-modellen die elke gemotiveerde aanvaller vandaag kan inzetten. Elke dag zonder machine-snelle verdediging maakt organisaties kwetsbaar voor aanvallen die volledige inbraakreeksen in minuten kunnen uitvoeren, in plaats van de uren of dagen die menselijke aanvallers nodig hebben.
De AI maakte succesvol misbruik van Apache Struts-kwetsbaarheden (CVE-2017-5638), verkeerd geconfigureerde services, zwakke inloggegevens en privilege-escalatiekwetsbaarheden zoals sudoedit in testomgevingen gebaseerd op echte datalekken zoals Equifax en Colonial Pipeline. De AI toonde het vermogen om deze exploits te combineren voor volledige netwerkcompromittering, waarbij systematisch werd bewogen van initiële toegang via laterale beweging tot data-exfiltratie.
Traditionele beveiligingstools en Security Operations Centers op menselijk tempo zijn structureel ontoereikend tegen AI-aanvallen omdat ze vertrouwen op bekende signatures en menselijke analysesnelheid—terwijl analisten één melding onderzoeken, kan AI tientallen alternatieve aanvalsvectoren uitvoeren. Organisaties hebben AI-gedreven platforms zoals Kiteworks nodig die gedragsafwijkingen kunnen detecteren, reageren op machine-snelheid en eenheid van zichtbaarheid bieden over alle systemen om deze dreigingen effectief te weerstaan.