
L’IA peut désormais pirater votre réseau : ce que révèlent les dernières recherches
L’avènement de la cyberguerre pilotée par l’IA
Des recherches récentes menées par la Carnegie Mellon University et Anthropic prouvent que les grands modèles de langage (LLMs) peuvent exécuter de façon autonome des attaques réseau sophistiquées en plusieurs étapes, compromettant avec succès des environnements d’entreprise avec un minimum d’intervention humaine. Cette évolution bouleverse la manière dont les organisations doivent aborder la cybersécurité.
Traditionnellement, les cyberattaques complexes nécessitaient des opérateurs humains qualifiés qui exploraient méthodiquement les réseaux, identifiaient les vulnérabilités et exécutaient soigneusement leur stratégie d’attaque. Cette dynamique évolue. Aujourd’hui, les modèles d’IA, associés aux bons outils, égalent ou surpassent les capacités humaines d’attaque, tout en opérant en continu, sans fatigue ni limitations humaines.
Vous pensez que votre organisation est sécurisée. Mais pouvez-vous le prouver ?
L’accessibilité de ces fonctions pose de nouveaux défis. Réaliser des intrusions réseau en plusieurs étapes exigeait auparavant une solide expérience et une expertise technique pointue. Or, la recherche révèle que des LLMs équipés d’un outil d’abstraction nommé Incalmo ont atteint des taux de réussite allant de 48 % à 100 % selon les environnements testés — des résultats qui doivent alerter immédiatement les professionnels de la sécurité.
Ce bouleversement oblige les organisations à repenser leur stratégie de sécurité. Les défenses traditionnelles, conçues pour des attaques à rythme humain, ne suffisent plus face à des menaces pilotées par l’IA qui opèrent en continu, s’adaptent dynamiquement et exécutent des séquences d’attaque complexes sans contrainte humaine.
Comprendre la recherche : quand l’IA devient l’attaquant
Périmètre et méthodologie de l’étude
La collaboration entre la Carnegie Mellon University et Anthropic offre l’une des évaluations les plus poussées des capacités offensives des LLMs. Les chercheurs ont testé les principaux modèles d’IA — dont GPT-4, Claude et la famille Gemini de Google — sur 10 environnements réseau soigneusement conçus pour refléter l’architecture réelle des entreprises.
Les environnements testés comprenaient de 25 à 50 hôtes et s’appuyaient sur des scénarios inspirés de violations avérées, comme celles d’Equifax ou de Colonial Pipeline. Chaque environnement présentait des topologies réseau réalistes, des services vulnérables et des erreurs de configuration courantes en entreprise. L’objectif était simple : déterminer si l’IA pouvait exécuter de façon autonome des attaques complexes en plusieurs étapes, habituellement réservées à des opérateurs humains expérimentés.
Résumé de
-
L’IA sait désormais pirater de façon autonome les réseaux d’entreprise
Les recherches de Carnegie Mellon et Anthropic prouvent que les LLMs peuvent exécuter des attaques réseau sophistiquées en plusieurs étapes avec des taux de réussite atteignant 100 % lorsqu’ils sont dotés des bons outils. Ce n’est pas de la théorie — cela se produit déjà avec des modèles d’IA accessibles à tous.
-
La couche d’abstraction a tout changé
Les LLMs échouaient initialement à pirater (moins de 30 % de réussite), mais l’introduction d’Incalmo — un outil qui traduit les concepts de haut niveau en commandes techniques — leur a permis de compromettre 9 réseaux sur 10. L’IA n’a donc pas besoin d’une expertise technique poussée, mais simplement des bons outils de traduction pour devenir un attaquant redoutable.
-
Les attaquants IA opèrent fondamentalement différemment des humains
Les hackers IA travaillent 24h/24, 7j/7, exploitent systématiquement chaque vulnérabilité détectée et peuvent sonder simultanément des centaines de vecteurs d’attaque tout en mémorisant parfaitement toutes les informations. Lors des tests, l’IA a utilisé un seul identifiant pour accéder à 48 bases de données d’un réseau — une rigueur impossible à égaler pour un humain.
-
Les mesures de sécurité traditionnelles ne peuvent pas stopper les attaques IA
La détection basée sur les signatures échoue face aux attaques générées dynamiquement par l’IA, et la vitesse humaine des opérations de sécurité est trop lente pour contrer des attaques à la vitesse machine, exécutées en quelques minutes. Des outils de sécurité fragmentés créent des angles morts que l’IA exploite, tandis que les analystes peinent à corréler les alertes entre systèmes.
-
La défense pilotée par l’IA devient indispensable
Les organisations doivent adopter des plateformes de sécurité renforcées par l’IA, capables de détecter les anomalies comportementales, de réagir à la vitesse machine et d’offrir une visibilité unifiée pour contrer les menaces IA. Des solutions comme le Réseau de données privé de Kiteworks montrent comment les caractéristiques de l’IA qui rendent les attaques dangereuses — vitesse, persistance, adaptabilité — peuvent devenir des atouts défensifs.
Premiers constats : les LLMs peinent lors d’attaques directes
Les premiers résultats semblaient rassurants. Lorsqu’on leur donnait un accès direct à la ligne de commande et la consigne de compromettre les réseaux, même les LLMs avancés obtenaient de piètres résultats. Sur tous les environnements testés, les LLMs non assistés n’atteignaient que 1 % à 30 % des états de graphe d’attaque — autrement dit, ils échouaient à mener des attaques efficaces.
Les chercheurs ont identifié deux principaux modes d’échec. D’abord, les LLMs généraient de nombreuses commandes inutiles — 28 % à 81 % des tentatives n’étaient pas pertinentes. Ils tentaient de forcer des identifiants là où aucun service n’existait ou d’exploiter des failles sur des systèmes inexistants.
Ensuite, même lorsqu’ils identifiaient le bon vecteur d’attaque, la mise en œuvre posait problème. Entre 9 % et 32 % des commandes pertinentes comportaient des erreurs les rendant inefficaces. Par exemple, un LLM pouvait comprendre la nécessité de scanner des vulnérabilités, mais rédiger une commande incorrecte, ratant sa cible ou utilisant de mauvais paramètres.
Le facteur décisif : la couche d’abstraction Incalmo
L’introduction d’Incalmo, une couche d’abstraction de haut niveau entre le LLM et l’environnement cible, a radicalement changé la donne. Au lieu d’exiger des LLMs qu’ils génèrent des commandes shell de bas niveau, Incalmo leur permet de travailler avec des tâches de haut niveau comme « scanner le réseau », « se déplacer latéralement vers un hôte » ou « exfiltrer des données ».
Cette couche d’abstraction repose sur trois composants intégrés :
- Un planificateur d’actions qui traduit les intentions en commandes correctement formatées
- Un service de graphe d’attaque qui aide les LLMs à identifier les actions pertinentes selon leurs objectifs
- Un service d’état de l’environnement qui maintient la connaissance du réseau pour une prise de décision éclairée
Avec Incalmo, les LLMs auparavant inefficaces ont compromis 9 environnements de test sur 10, certains parvenant à parcourir l’intégralité du graphe d’attaque. L’environnement inspiré d’Equifax, qu’aucun LLM ne pouvait compromettre sans aide, a vu plusieurs modèles d’IA accéder à l’ensemble des 48 bases de données grâce à cette couche d’abstraction.
Anatomie des attaques pilotées par l’IA
Étapes et fonctions de l’attaque
Comprendre l’exécution d’une attaque IA est essentiel pour bâtir des défenses efficaces. Les recherches montrent que les attaquants IA suivent des méthodes systématiques proches des menaces persistantes avancées (APT), mais avec l’efficacité et la persistance d’une machine.
Reconnaissance : l’IA cartographie systématiquement la topologie du réseau. À l’aide d’outils de scan, elle identifie les hôtes actifs, les ports ouverts et les services en fonctionnement. Contrairement à un attaquant humain qui cible certains systèmes, l’IA dresse l’inventaire complet de tous les actifs détectables, créant une vue exhaustive de la surface d’attaque.
Accès initial : l’IA exploite les vulnérabilités découvertes. Lors des tests, elle a exploité des failles Apache Struts (CVE-2017-5638), des services mal configurés et des identifiants faibles. Son avantage : tenter simultanément de multiples vecteurs d’attaque, sans les limitations cognitives d’un opérateur humain.
Mouvement latéral : l’IA fait preuve d’une efficacité méthodique. Après une première compromission, elle pivote méthodiquement dans le réseau à l’aide des identifiants et relations de confiance découverts. Dans un cas, l’IA a trouvé des identifiants SSH sur un serveur web et les a utilisés pour accéder à 48 serveurs de bases de données différents — une tâche épuisante pour un humain, mais anodine pour l’IA.
Élévation de privilèges : l’IA sait identifier et exploiter les erreurs de configuration système. Elle a utilisé avec succès des failles sudoedit, des fichiers passwd mal configurés et d’autres vecteurs d’escalade pour obtenir des droits administrateur sur les systèmes compromis.
Exfiltration des données : l’attaque se termine par l’identification et l’extraction systématique d’informations sensibles. Contrairement au vol de données rapide mené par un humain, l’IA peut exfiltrer patiemment, sur la durée, échappant potentiellement aux seuils de détection calibrés pour la vitesse humaine.
Ce qui distingue les attaquants IA
Les attaquants IA présentent des caractéristiques qui les distinguent des menaces humaines :
- Mémoire parfaite de toutes les informations découvertes et des tentatives précédentes
- Fonctionnement continu sans pause, fatigue ni baisse d’attention
- Traitement et corrélation instantanés de volumes d’informations massifs
- Adaptation stratégique en temps réel selon les renseignements collectés
- Pivotement fluide entre les vecteurs d’attaque, sans frustration ni biais
Ces caractéristiques, associées à une méthodologie systématique, font des adversaires particulièrement efficaces qui remettent en cause les postulats de la sécurité traditionnelle.
Scénarios d’attaque réels testés
La validité de la recherche repose sur des scénarios réalistes. L’environnement inspiré d’Equifax a reproduit les conditions d’une violation documentée — serveurs Apache Struts vulnérables, stockage d’identifiants en clair, et de nombreuses bases de données contenant des données sensibles. L’IA a mené toute la chaîne d’attaque, de la compromission initiale à l’accès total aux bases de données.
Le scénario inspiré de Colonial Pipeline a testé la capacité de l’IA à cibler des infrastructures critiques. Cet environnement incluait des réseaux IT et OT, avec des objectifs portant sur des systèmes contrôlant des processus physiques. L’IA a franchi des segmentations réseau complexes, exploitant des interfaces de gestion pour atteindre des systèmes de contrôle critiques.
Des environnements d’entreprise standards, avec architectures classiques — serveurs web, postes de travail, bases de données réparties sur plusieurs segments — se sont révélés tout aussi vulnérables. L’IA a cartographié, identifié les actifs et compromis systématiquement l’ensemble, accédant à toutes les données.
Pourquoi les mesures de sécurité traditionnelles ne suffisent plus
Limites des défenses conventionnelles
Les mesures de cybersécurité traditionnelles ont été conçues pour des attaques menées par des humains, à vitesse humaine et avec des contraintes humaines. Les systèmes de détection basés sur les signatures, efficaces contre les menaces connues, ne peuvent pas identifier les schémas d’attaque inédits générés dynamiquement par l’IA. Ils reposent sur la reconnaissance de signatures ou séquences précises, mais l’IA invente de nouvelles approches qui contournent ces défenses statiques.
Les opérations de sécurité à vitesse humaine deviennent des vulnérabilités face à des attaques à la vitesse machine. Tandis que les analystes enquêtent sur une alerte, l’IA sonde simultanément des centaines d’autres vecteurs, testant de multiples possibilités bien plus vite que la capacité de réaction humaine. Le temps nécessaire à l’identification et à la réponse humaine permet à l’IA d’exécuter d’autres stratégies.
Des infrastructures de sécurité fragmentées créent des angles morts que l’IA exploite facilement. Différents outils surveillent divers aspects du réseau, et la corrélation des événements pour détecter des schémas sophistiqués exige une analyse humaine — un goulot d’étranglement que l’IA évite totalement.
L’avantage de la couche d’abstraction
L’enseignement clé de la recherche va au-delà des capacités offensives de l’IA — il montre comment des couches d’abstraction comme Incalmo comblent le fossé entre le raisonnement de l’IA et l’exécution technique. Cette évolution a un impact majeur, tant pour l’attaque que pour la défense. Tout comme Incalmo a permis à l’IA de surmonter les difficultés d’implémentation, des outils similaires pourraient rendre les attaques sophistiquées accessibles à des acteurs moins qualifiés.
Ce changement d’accessibilité bouleverse le paysage des menaces. Auparavant, les attaques réseau en plusieurs étapes exigeaient une expertise approfondie acquise sur des années. Avec l’IA et les bons outils, ces fonctions deviennent accessibles à quiconque sait interagir avec un LLM. Les barrières techniques protégeant les organisations s’effondrent.
Défi de vitesse et d’échelle
Les attaquants IA opèrent à des échelles et vitesses inégalables par les défenseurs humains :
- Fonctionnement ininterrompu 24h/24, 7j/7, sans pause
- Exécution simultanée d’attaques multi-vecteurs
- Corrélation d’informations et adaptation stratégique en temps réel
- Aucune fatigue face aux alertes ni surcharge cognitive liée au volume de données
Ce différentiel de vitesse crée des situations asymétriques en faveur des attaquants. Alors que les équipes de sécurité mettent des heures ou des jours à enquêter et réagir, l’IA exécute une chaîne d’attaque complète en quelques minutes. Les modèles de sécurité dépendant de l’analyse et de l’intervention humaine s’avèrent structurellement insuffisants face à ces menaces.
Vers une défense pilotée par l’IA
La recherche est claire : se défendre contre des attaques pilotées par l’IA nécessite des défenses elles-mêmes pilotées par l’IA. Les organisations doivent s’équiper de solutions de sécurité capables d’opérer à la vitesse machine tout en maintenant la supervision et le contrôle humains. Cela implique de mettre en place des systèmes capables de reconnaître les schémas comportementaux, d’analyser les menaces en temps réel et d’adapter leur réponse.
Des stratégies de défense IA efficaces doivent cibler les schémas d’attaque identifiés dans la recherche. Lors des phases de reconnaissance, l’IA défensive doit repérer les scans systématiques anormaux qui distinguent les attaquants IA des découvertes réseau légitimes. Pour le mouvement latéral, les systèmes doivent détecter l’exploitation méthodique des identifiants — comme l’utilisation d’un même identifiant pour accéder à des dizaines de systèmes en un temps record.
Les plateformes de sécurité modernes commencent à intégrer ces fonctions via l’analytique comportementale, des modèles d’apprentissage automatique et des systèmes de réponse automatisée. Des solutions comme le Réseau de données privé de Kiteworks illustrent cette approche, utilisant l’IA pour détecter et contrer les attaques IA tout en assurant une visibilité et un contrôle centralisés sur les mouvements de données sensibles.
L’avenir de l’IA en cybersécurité
Un paysage de menaces en pleine évolution
Les recherches actuelles ne représentent que les premiers stades des capacités d’attaque de l’IA. À mesure que les modèles progressent et que l’accès se démocratise, on peut s’attendre à une évolution rapide des capacités. Les attaques IA de demain pourraient intégrer :
- Des techniques avancées d’évasion apprises des réponses défensives
- Une adaptation dynamique des stratégies selon les défenses rencontrées
- Des campagnes coordonnées entre plusieurs organisations, partageant des renseignements en temps réel
- Des techniques sophistiquées d’ingénierie sociale venant compléter les attaques techniques
La dynamique attaque-défense va s’accélérer, chaque camp exploitant les avancées de l’IA. Les organisations dépourvues de défenses renforcées par l’IA risquent d’être submergées par la vitesse et la sophistication des attaques. La question n’est plus de savoir si les attaques vont évoluer, mais à quelle vitesse et si les défenses suivront le rythme.
Enjeux réglementaires et de conformité
De nouvelles réglementations prennent en compte les défis de sécurité liés à l’IA. Les gouvernements reconnaissent l’insuffisance des cadres traditionnels face aux menaces de l’ère IA. On peut s’attendre à des exigences portant sur :
- Des contrôles et configurations de sécurité spécifiques à l’IA
- Des modèles de menace intégrant l’hypothèse d’attaquants IA
- Des procédures d’intervention en cas d’incident adaptées aux événements à vitesse machine
- Des audits et évaluations réguliers de la sécurité IA
Des standards sectoriels spécifiques à la sécurité IA émergent, au-delà des exigences traditionnelles. Les secteurs des services financiers, de la santé et des infrastructures sont en pointe. Les organisations doivent se préparer à des réglementations considérant les attaques IA comme probables, et non plus comme de simples possibilités.
Conclusion : transformer l’IA de menace en bouclier
Les recherches de Carnegie Mellon et Anthropic confirment que les cyberattaques pilotées par l’IA sont une réalité, et non une hypothèse future. Les LLMs exécutant de façon autonome des attaques sophistiquées en plusieurs étapes avec un taux de réussite élevé bouleversent le paysage de la sécurité. Les organisations qui conservent des modèles traditionnels centrés sur l’humain se retrouvent en net désavantage.
La voie à suivre impose l’adoption de défenses renforcées par l’IA, capables de rivaliser avec les attaques IA. Cela passe par une refonte de l’architecture de sécurité adaptée à un environnement où l’IA est omniprésente, et non par l’ajout d’outils à des piles existantes. Les caractéristiques qui rendent l’IA dangereuse en tant qu’attaquant — vitesse, persistance, adaptabilité — deviennent des atouts défensifs avec les bonnes plateformes. Des solutions comme le Réseau de données privé de Kiteworks montrent comment l’analytique comportementale pilotée par l’IA et la réponse automatisée permettent de contrer efficacement ces nouvelles menaces.
Les organisations doivent évaluer leur sécurité actuelle sous l’angle de la menace IA : leurs défenses fonctionnent-elles à la vitesse machine ? Offrent-elles une visibilité suffisante pour détecter la reconnaissance et les mouvements latéraux IA ? Sont-elles conçues pour l’échelle et la sophistication des attaques automatisées ? Toute réponse négative indique un besoin immédiat de solutions de sécurité pilotées par l’IA, capables de consolider la protection tout en restant agiles face à l’évolution des menaces.
Dans un environnement où l’IA est présente, les défenses d’hier deviennent les vulnérabilités d’aujourd’hui. Les organisations qui réussissent comprennent ce changement et s’adaptent. Que ce soit via des plateformes comme Kiteworks ou d’autres solutions de sécurité renforcées par l’IA, l’enjeu est clair : adopter la défense IA ou risquer de grossir les statistiques de violations. Il ne s’agit plus de savoir s’il faut moderniser sa sécurité, mais à quelle vitesse on peut déployer des défenses capables de rivaliser avec les menaces IA.
Foire aux questions
Oui, les recherches de Carnegie Mellon et Anthropic ont prouvé que des LLMs comme GPT-4 et Claude peuvent exécuter de façon autonome des attaques réseau sophistiquées en plusieurs étapes lorsqu’ils sont équipés d’outils comme Incalmo, atteignant des taux de réussite allant jusqu’à 100 %. Cependant, sans ces couches d’abstraction, ces modèles d’IA peinent à mettre en œuvre techniquement les attaques et n’atteignent pas 30 % de leurs objectifs.
Les attaquants IA opèrent 24h/24, 7j/7, sondent simultanément des centaines de vecteurs d’attaque et n’oublient jamais les vulnérabilités ou identifiants découverts — lors des tests, l’IA a utilisé un seul jeu d’identifiants pour accéder systématiquement à 48 bases de données d’un réseau. Ils adaptent aussi leur stratégie en temps réel et génèrent de nouveaux schémas d’attaque contournant les systèmes de sécurité traditionnels basés sur les signatures.
Les organisations doivent déployer sans attendre des défenses pilotées par l’IA, car la recherche s’est appuyée sur des modèles d’IA accessibles au public et donc à tout attaquant motivé. Chaque jour sans défense à la vitesse machine expose l’organisation à des attaques capables d’exécuter une séquence complète de compromission en quelques minutes, alors qu’un humain mettrait des heures ou des jours.
L’IA a exploité avec succès des vulnérabilités Apache Struts (CVE-2017-5638), des services mal configurés, des identifiants faibles et des failles d’élévation de privilèges comme sudoedit dans des environnements inspirés de violations réelles, dont Equifax et Colonial Pipeline. L’IA a su enchaîner ces exploits pour compromettre totalement le réseau, progressant systématiquement de l’accès initial au mouvement latéral, jusqu’à l’exfiltration des données.
Les outils de sécurité traditionnels et les SOC à vitesse humaine sont structurellement inadaptés face aux attaques IA, car ils reposent sur des signatures connues et la rapidité d’analyse humaine — pendant qu’un analyste enquête sur une alerte, l’IA peut lancer des dizaines d’autres vecteurs d’attaque. Les organisations ont besoin de plateformes pilotées par l’IA comme Kiteworks, capables de détecter les anomalies comportementales, de réagir à la vitesse machine et d’offrir une visibilité unifiée sur tous les systèmes pour contrer efficacement ces menaces.
Ressources complémentaires
- Article de blog Zero Trust Architecture : Never Trust, Always Verify
- Vidéo Comment Kiteworks fait progresser le modèle Zero Trust de la NSA au niveau des données
- Article de blog Ce que signifie étendre le Zero Trust à la couche contenu
- Article de blog Instaurer la confiance dans l’IA générative grâce à une approche Zero Trust
- Vidéo Kiteworks + Forcepoint : démonstration de la conformité et du Zero Trust à la couche contenu