Les attaquants agissent à la vitesse des machines, tandis que les défenseurs fonctionnent toujours à un rythme humain.

Le rapport Booz Allen Hamilton, publié le 16 mars 2026, met en lumière un problème que la plupart des responsables de la sécurité perçoivent mais que peu ont quantifié : l’écart de temps entre les attaques à la vitesse de l’IA et la défense à vitesse humaine ne se réduit pas. Il s’élargit.

Points clés à retenir

  1. Les acteurs malveillants ont adopté l’IA pour leurs opérations offensives plus rapidement que les gouvernements et les entreprises ne l’ont fait pour la défense, créant ce que Booz Allen appelle le « cybersecurity speed gap ». Des attaques qui prenaient autrefois plusieurs jours ont désormais un impact opérationnel en quelques minutes.
  2. Un seul opérateur équipé d’outils d’IA agentique peut désormais mener la reconnaissance, l’exploitation et les actions de suivi sur des dizaines de cibles simultanément. Des fonctions qui nécessitaient auparavant de grandes équipes de spécialistes coordonnées ne requièrent plus qu’une personne munie d’une clé API.
  3. Les plateformes d’IA deviennent elles-mêmes des surfaces d’attaque à forte valeur — concentrant des données sensibles, des systèmes d’identité et des droits d’exécution en un seul endroit. Lorsqu’elles sont mal configurées ou compromises, les attaquants accèdent directement aux systèmes essentiels au fonctionnement des organisations.
  4. Les opérations de cybersécurité manuelles ne peuvent pas suivre la cadence des attaques à la vitesse de l’IA, alors que la plupart des organisations gèrent encore la réponse aux incidents sur des délais humains. CISA accorde 15 jours aux défenseurs pour corriger les vulnérabilités critiques ; HexStrike a exploité plus de 8 000 endpoints en moins de 10 minutes.
  5. Pour combler cet écart de vitesse, il faut prendre trois décisions : passer la défense à la vitesse de l’IA, sécuriser les plateformes d’IA comme des infrastructures critiques et adopter un modèle de collaboration humain-IA. Les organisations qui ne font pas ces choix ne détecteront les intrusions qu’une fois que les attaquants auront déjà pris le contrôle.

Le rapport, relayé par CyberScoop, retrace une chronologie des opérations offensives dopées à l’IA de 2023 à début 2026, marquant un point d’inflexion clair. En août 2025, le framework open source HexStrike a exploité une vulnérabilité Citrix NetScaler et compromis plus de 8 000 endpoints en moins de 10 minutes. En septembre 2025, Anthropic a signalé une campagne menée par un État chinois utilisant une version jailbreakée de Claude Code pour exécuter de façon autonome une kill chain complète contre 30 cibles mondiales — l’IA prenant en charge 80 à 90 % des tâches tactiques. En janvier 2026, un chercheur en sécurité a démontré que des modèles de langage commerciaux pouvaient générer des chaînes d’exploitation complètes et fonctionnelles pour des vulnérabilités zero-day, pour un coût moyen de 50 $ par exécution.

Le CrowdStrike 2026 Global Threat Report confirme cette chronologie : le temps moyen de breakout pour les eCrime est tombé à 29 minutes en 2025, soit une baisse de 65 % sur un an, avec un record observé à 27 secondes. Les attaques menées par des adversaires utilisant l’IA ont augmenté de 89 % sur un an. Pendant ce temps, CISA fonctionne toujours avec un délai de remédiation de 15 jours pour les vulnérabilités critiques — et le rapport Booz Allen révèle que 60 % de ces vulnérabilités restent non corrigées même après ce délai. Ce n’est plus un écart, c’est un gouffre.

Brad Medairy, EVP National Cyber Business chez Booz Allen, a résumé le risque en termes opérationnels : dès qu’un attaquant exploite une vulnérabilité de périmètre et pénètre le système, il agit à la vitesse machine. Les défenseurs opérant encore à vitesse humaine ne sont pas seulement plus lents. Ils assistent à l’intrusion en direct.

Deux modèles d’attaque dopée à l’IA — et pourquoi le second change la donne

Le rapport Booz Allen identifie deux schémas distincts dans l’utilisation de l’IA par les acteurs malveillants. Le premier est le modèle collaboratif : un opérateur interagit avec un modèle de langage pour écrire des scripts, déboguer du code et adapter des outils en cas d’échec. C’est un multiplicateur d’efficacité — il accélère ce que font déjà les attaquants tout en gardant l’humain dans la boucle pour les décisions clés.

Le second est le modèle d’orchestration, fondamentalement différent. Un opérateur connecte un système d’IA à des outils de sécurité offensifs, le cible, définit des paramètres et s’éloigne. Le système choisit ses propres outils, exécute des actions, lit les résultats et itère jusqu’à atteindre l’objectif. Brad Medairy, EVP National Cyber Business chez Booz Allen, compare cela à l’équivalent IA du « vibe coding » — on définit le but, les contraintes, puis l’agent résout le problème.

C’est ce modèle d’orchestration qui rend les incidents HexStrike et Claude Code si marquants. Il ne s’agit pas d’équipes étatiques sophistiquées utilisant l’IA pour gagner quelques heures sur un processus manuel. Ce sont des systèmes automatisés qui exécutent des workflows offensifs complets avec un minimum d’intervention humaine. La campagne Claude Code documentée par Anthropic en novembre 2025 est particulièrement instructive : des agents IA jailbreakés ont sélectionné les cibles, généré les exploits, mené les intrusions, exfiltré les données et installé la persistance — le tout sans supervision humaine en temps réel. Les opérateurs humains n’ont pris la main qu’à quatre à six moments clés sur l’ensemble de la campagne. Le rapport prévisionnel de Kiteworks a relevé un point défensif lors de cet incident : l’IA a parfois exagéré ses résultats ou inventé des données, obligeant les attaquants à valider leurs trouvailles, ce qui a ralenti la campagne. Cette imprécision est une maigre consolation — et elle disparaîtra à mesure que les modèles progresseront.

L’étude Agents of Chaos publiée en février 2026 — menée par 20 chercheurs du MIT, Harvard, Stanford et CMU — a documenté les failles structurelles qui rendent cela possible : les agents IA n’ont aucun mécanisme fiable pour distinguer les utilisateurs autorisés des attaquants, aucun modèle interne de leurs propres limites de compétence, et aucun moyen d’empêcher la propagation croisée d’instructions compromises entre agents.

Le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité chiffre le problème côté défenseurs : 63 % des organisations ne peuvent pas imposer de limites d’usage aux agents IA, 60 % ne peuvent pas mettre fin à un agent défaillant, et 55 % ne peuvent pas isoler les systèmes IA du reste du réseau. Les attaquants construisent des agents offensifs autonomes. La plupart des défenseurs ne parviennent même pas à maîtriser les leurs.

Les plateformes d’IA sont la nouvelle infrastructure critique — et la nouvelle surface d’attaque

Le rapport Booz Allen va au-delà de l’analyse classique des menaces : les plateformes d’IA sont devenues des infrastructures critiques. Ces systèmes concentrent des données sensibles, se connectent à la messagerie et aux systèmes de tickets, s’intègrent aux dépôts de code et déclenchent des actions via des plugins, agents et workflows automatisés. Quand elles sont compromises, les attaquants accèdent directement aux zones de confiance maximale de l’entreprise.

Les cas documentés sont précis. XLab a signalé la propagation du malware Pickai via des vulnérabilités dans ComfyUI, un outil de workflow IA, touchant près de 700 serveurs. Microsoft Incident Response a documenté l’utilisation de l’API OpenAI Assistants par des attaquants pour transmettre des instructions et recevoir des résultats, servant de canal de commande et contrôle. Des dépôts publics ont servi à diffuser des packages IA malveillants, accompagnés d’une documentation rédigée par IA pour paraître légitimes — Sonatype a recensé près de 400 000 nouveaux packages open source malveillants au quatrième trimestre 2025, dont 89 % attribués à une seule campagne automatisée et assistée par IA.

Le risque s’amplifie lorsqu’aucune équipe ne gère la sécurité IA de bout en bout. Une équipe gère les modèles et workflows. Une autre gère les accès et les logs. Une troisième gère les fournisseurs. Le rapport prévisionnel de Kiteworks révèle que 57 % des organisations n’ont pas de passerelle centralisée pour les données IA et que 33 % des organismes publics n’ont aucun contrôle dédié à l’IA. Le Black Kite 2026 Third-Party Breach Report a recensé 136 violations tierces vérifiées en 2025, touchant 719 victimes nommées et environ 26 000 entreprises non identifiées — avec un délai médian de divulgation de 73 jours. Lorsque les plateformes d’IA se connectent aux systèmes internes, aux API partenaires et aux workflows de la supply chain, chaque connexion devient un vecteur potentiel pour la propagation d’un agent IA compromis.

La recommandation du rapport Booz Allen — appliquer des référentiels de sécurité contraignants pour les accès, les logs, les intégrations et la gestion des données — reconnaît que les recommandations volontaires ne sont pas à la hauteur des risques que posent ces plateformes.

L’écart de vitesse est aussi un problème de gouvernance des données

Derrière le problème de vitesse se cache un problème de données. Les attaquants dopés à l’IA ne se contentent pas d’entrer plus vite — ils localisent et extraient les données sensibles plus rapidement. Le passage des intrusions basées sur des malwares à des opérations fondées sur l’identité et les identifiants signifie que les attaquants utilisent des comptes légitimes, accèdent à des systèmes légitimes et exfiltrent des données via des canaux légitimes. Le rapport CrowdStrike a montré que 82 % des détections en 2025 étaient sans malware.

Cela redéfinit la « défense » au niveau des données. La sécurité périmétrique traditionnelle, la détection des endpoints et les outils basés sur les signatures sont conçus pour repérer les fichiers malveillants. Ils ne détectent pas les comportements malveillants via des comptes de confiance accédant à des données sensibles à la vitesse machine.

Le 2026 Thales Data Threat Report révèle que seulement 33 % des organisations savent précisément où résident leurs données. Le rapport prévisionnel de Kiteworks indique que 33 % n’ont aucune piste d’audit de qualité probante et que 61 % disposent de logs fragmentés — inutilisables lors d’un incident à la vitesse de l’IA. Le DTEX 2026 Insider Threat Report ajoute une dimension : le Shadow AI est désormais la première cause d’incidents internes par négligence, alors que seulement 13 % des organisations ont intégré l’IA à leur stratégie de sécurité.

Quand les attaquants progressent via des comptes légitimes à la vitesse machine et que les défenseurs ne peuvent même pas auditer ce que leurs propres systèmes IA consultent, l’écart de vitesse devient un problème de visibilité — et le manque de visibilité devient un problème de conformité.

Le WEF Global Cybersecurity Outlook 2026 confirme cette convergence : 73 % des sondés déclarent avoir été personnellement touchés, ou connaître quelqu’un touché, par une fraude numérique en 2025, et les PDG classent désormais la fraude numérique et les vulnérabilités IA comme leurs deux principales préoccupations — reléguant le ransomware au second plan pour la première fois. Le rapport Booz Allen fait le lien : quand l’IA industrialise la tromperie et que les attaquants opèrent via des identités de confiance, la sécurité devient indissociable de la gouvernance des données. Les organisations incapables de prouver quelles données ont été consultées, par qui, selon quelle règle, et si l’utilisateur était humain ou machine, échoueront à la fois lors de l’enquête post-incident et lors de l’audit réglementaire qui suivra.

Comment Kiteworks comble l’écart entre les attaques à la vitesse de l’IA et la défense au niveau des données

Les trois recommandations du rapport Booz Allen — passer la défense à la vitesse de l’IA, sécuriser les plateformes d’IA comme des infrastructures critiques et adopter la collaboration humain-IA — convergent vers une exigence architecturale unique : la gouvernance des données doit être indépendante du modèle, de l’agent et de l’utilisateur.

Kiteworks agit comme plan de contrôle pour les échanges sécurisés de données, offrant une gouvernance unifiée sur tous les canaux où circulent des données sensibles — messagerie électronique, partage de fichiers, SFTP, transfert de fichiers géré, API, formulaires de données et intégrations IA via son Secure MCP Server. Ce n’est pas une couche de monitoring supplémentaire. C’est la couche d’application des règles.

Pour le confinement à la vitesse de l’IA, Kiteworks capture en temps réel une piste d’audit infalsifiable de chaque interaction avec des données sensibles — qu’il s’agisse d’un humain ou d’un agent IA — et l’alimente directement dans l’infrastructure SIEM sans aucune latence ni limitation. Lorsqu’un incident se joue en quelques minutes, les enquêteurs disposent déjà de la chaîne de preuves, sans avoir à la reconstituer à partir de cinq systèmes différents avec 72 heures de retard sur les logs.

Pour la sécurité des plateformes d’IA, Kiteworks impose un contrôle d’accès basé sur les attributs (ABAC) au niveau des données, garantissant que chaque requête d’agent IA est authentifiée, autorisée selon une politique multidimensionnelle, chiffrée avec un chiffrement validé FIPS 140-3 et enregistrée avec l’attribution complète de la chaîne de délégation. Le « purpose binding » limite ce que les agents sont autorisés à faire. La fonction kill-switch permet une interruption rapide. L’isolation à locataire unique empêche l’exploitation de vulnérabilités entre locataires.

Pour la collaboration humain-IA, Kiteworks remplace les contrôles manuels de conformité qui freinent le déploiement de l’IA par une gouvernance automatisée et continue. Les projets IA se déploient rapidement car la conformité est intégrée à l’architecture — et non ajoutée ponctuellement lors de validations périodiques.

Cinq changements à opérer d’urgence avant que l’écart de vitesse ne se referme sur vous

Premièrement, préapprouvez les actions de confinement automatisées pour les incidents à la vitesse de l’IA. Le rapport Booz Allen est clair : attendre une validation manuelle pendant une intrusion est trop lent. Définissez à l’avance quelles actions — isolement d’hôte, blocage du trafic, révocation de session, gel des privilèges — peuvent s’exécuter automatiquement selon des seuils prédéfinis. Testez ces décisions lors d’exercices de simulation avant qu’un incident ne vous y oblige.

Deuxièmement, définissez des référentiels de sécurité contraignants pour chaque plateforme IA en production. Le rapport prévisionnel de Kiteworks indique que 57 % des organisations n’ont pas de passerelle centralisée pour les données IA. Chaque workflow automatisé doit disposer de sa propre identité et de contrôles d’accès, de règles zero trust limitant les données et systèmes accessibles, et d’une journalisation détaillée de chaque appel d’outil, événement clé et indicateur de performance.

Troisièmement, unifiez votre infrastructure de piste d’audit sur tous les canaux d’échange de données. Le rapport prévisionnel de Kiteworks révèle que 61 % des organisations disposent de logs fragmentés, donc inexploitables. Quand le temps de breakout est de 29 minutes et que vos logs arrivent 72 heures plus tard, vous enquêtez sur une scène de crime, pas sur une attaque en cours.

Quatrièmement, déployez la gouvernance au niveau des données pour toutes les intégrations IA — et non des garde-fous au niveau du modèle. Les prompts système ne sont pas des contrôles de conformité. Ce sont des instructions contournables via injection de prompt, mise à jour de modèle ou manipulation indirecte. Seule l’application des règles au niveau des données — indépendamment du modèle — constitue un contrôle défendable lors d’un audit.

Cinquièmement, adoptez un modèle de collaboration humain-IA pour les opérations de sécurité. Le rapport Booz Allen estime que cette approche peut multiplier par 10 à 100 la capacité d’une équipe de sécurité. Les agents automatisés gèrent le triage de routine, la mise à jour des détections et le premier confinement. Les analystes humains supervisent, affinent la logique de détection et interviennent là où le jugement ou le contexte sont nécessaires.

La conclusion du rapport Booz Allen est sans appel : la question n’est plus de savoir si les organisations feront face à des intrusions dopées à l’IA. C’est déjà le cas. La vraie question est de savoir si les défenseurs pourront agir à temps — ou seulement après que les dégâts soient faits.

Foire aux questions

Le rapport Booz Allen 2026 montre que les attaquants dopés à l’IA passent désormais de la découverte à l’impact opérationnel en quelques minutes, alors que le triage SOC manuel et les chaînes d’approbation humaines s’étalent sur des heures, voire des jours. HexStrike a exploité plus de 8 000 endpoints en moins de 10 minutes. Le CrowdStrike 2026 Global Threat Report confirme que le temps moyen de breakout est tombé à 29 minutes. Le confinement doit démarrer automatiquement dans des seuils préapprouvés.

Les plateformes d’IA concentrent des données sensibles, des systèmes d’identité et des droits d’exécution, ce qui en fait des cibles de choix. Le rapport Booz Allen a documenté des attaques utilisant l’API OpenAI Assistants comme canal de commande et contrôle, ainsi que la propagation de malware via des failles d’outils de workflow IA. Le rapport prévisionnel de Kiteworks révèle que 57 % n’ont pas de passerelle centralisée pour les données IA et que 33 % des organismes publics n’ont aucun contrôle dédié à l’IA.

Le cybersecurity speed gap mesure la différence de temps entre l’exécution d’une attaque à la vitesse de l’IA et la réponse défensive à vitesse humaine. Le rapport Booz Allen montre que CISA accorde 15 jours aux défenseurs pour corriger les vulnérabilités critiques, alors qu’HexStrike a exploité une CVE en moins de 10 minutes. Le rapport CrowdStrike documente un temps moyen de breakout de 29 minutes et 82 % de détections sans malware, ce qui signifie que les outils traditionnels passent à côté de la majorité des attaques.

Kiteworks comble l’écart de vitesse de l’IA pour les données réglementées en appliquant un contrôle d’accès basé sur les attributs au niveau des données, en capturant en temps réel des pistes d’audit infalsifiables sans latence, et en appliquant un chiffrement validé FIPS 140-3 à chaque interaction. Des tableaux de bord de conformité prêts à l’emploi couvrent HIPAA, CMMC, RGPD et PCI DSS. Le rapport prévisionnel de Kiteworks indique que 63 % n’imposent pas le « purpose binding » IA — Kiteworks l’applique de façon architecturale.

Le modèle de collaboration humain-IA déploie des agents IA automatisés pour le triage des alertes, la mise à jour des règles de détection et les premières actions de confinement, tandis que les analystes humains supervisent, affinent la logique et gèrent les enquêtes complexes. Le rapport Booz Allen estime que cette approche multiplie par 10 à 100 la capacité d’une équipe de sécurité. Kiteworks soutient ce modèle avec une gouvernance automatisée — des pistes d’audit continues et l’application des règles qui éliminent les contrôles manuels de conformité.

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks