Les attaquants ne deviennent pas plus créatifs—ils deviennent plus rapides
En septembre 2025, Anthropic a révélé avoir détecté et neutralisé une opération de cyberespionnage attribuée à un groupe soutenu par l’État chinois. Cette opération utilisait des agents IA — des instances Claude Code agissant comme orchestrateurs autonomes — pour exécuter environ 80 à 90 % des tâches tactiques lors d’une campagne d’intrusion visant une trentaine d’entités. Les opérateurs humains n’intervenaient qu’à quelques moments clés : valider le passage de la reconnaissance à l’exploitation et décider des données à exfiltrer.
Résumé des points clés
- L’exploitation de vulnérabilités devient le principal vecteur d’attaque — et l’IA accélère le processus. IBM X-Force a constaté une hausse de 44 % des attaques sur les applications exposées au public, dont de nombreuses vulnérabilités exploitées ne nécessitaient aucune authentification.
- Les plateformes IA forment désormais un écosystème de collecte d’identifiants. Plus de 300 000 identifiants ChatGPT ont été retrouvés sur le dark web en 2025, offrant aux attaquants des moyens de manipuler les résultats, d’exfiltrer des données ou d’injecter des instructions malveillantes.
- Les compromissions de la supply chain ont presque quadruplé depuis 2020, et les chaînes d’outils IA sont les prochaines cibles. Les attaquants exploitent les pipelines CI/CD, les intégrations SaaS et les identités de développeurs de confiance — alors que 72 % des organisations sont incapables de dresser un inventaire fiable de leurs composants logiciels.
- Les groupes de ransomware ont augmenté de 49 % tandis que 82 % des détections ne contiennent aucun malware. Les attaquants utilisent des identifiants valides et des outils natifs, faisant des contrôles au niveau des données la dernière ligne de défense efficace.
- La plupart des organisations n’ont pas les contrôles de base pour gérer l’accès aux données IA. 63 % ne peuvent pas limiter l’usage des agents IA à un objectif précis, 60 % ne peuvent pas désactiver un agent défaillant, et seulement 43 % disposent d’une passerelle centralisée pour les données IA.
Cet incident annonçait la réalité opérationnelle désormais documentée à grande échelle par l’IBM X-Force Threat Intelligence Index 2026. L’exploitation des applications exposées au public a bondi de 44 % sur un an. L’exploitation de vulnérabilités a supplanté le phishing et le vol d’identifiants comme principal vecteur d’accès initial, représentant 40 % des incidents observés par X-Force en 2025. Beaucoup de ces vulnérabilités exploitées ne nécessitaient aucune authentification.
Le principal constat du rapport IBM n’est pas une sophistication accrue des attaques, mais leur rapidité. Les outils IA permettent aux attaquants de scanner, d’identifier et d’exploiter des failles en un temps record, alors que la plupart des équipes de sécurité n’ont pas encore traité l’alerte. Le temps moyen de passage d’un accès initial à un mouvement latéral — le breakout eCrime — est désormais de 29 minutes, selon le CrowdStrike 2026 Global Threat Report. Le breakout le plus rapide observé : 27 secondes. À cette vitesse, la surveillance réactive ne constitue pas une stratégie, mais un simple rapport post-incident.
300 000 identifiants IA sur le dark web — et la plupart des équipes de sécurité l’ignorent
Les données IBM X-Force sur le vol d’identifiants IA devraient alerter tous les RSSI dont les outils IA sont en production. Les opérateurs de malwares voleurs d’informations ont élargi leur cible aux plateformes de chatbot IA en 2025, ce qui a conduit à la mise en vente de plus de 300 000 identifiants ChatGPT sur le dark web. La réutilisation de mots de passe entre comptes personnels et professionnels transforme des identifiants grand public en portes d’accès à fort enjeu pour l’entreprise.
Ce risque n’est pas hypothétique. Les comptes IA compromis ouvrent des vecteurs d’attaque qui vont bien au-delà de la simple prise de contrôle de compte. Un attaquant ayant accès aux identifiants IA d’un collaborateur peut exfiltrer l’historique des conversations contenant des données sensibles, manipuler les résultats de l’IA pour influencer des décisions métiers ou injecter des instructions malveillantes qui contaminent les processus en aval.
Le 2026 DTEX/Ponemon Insider Threat Report indique que le shadow AI est désormais la première cause d’incidents internes par négligence, avec un coût moyen annuel de 19,5 millions de dollars. Et 92 % des organisations estiment que l’IA générative a modifié la façon dont les employés partagent l’information — mais seulement 13 % ont intégré l’IA dans leur stratégie de sécurité. Cet écart de 79 points entre la prise de conscience et l’action concentre les dégâts.
Le rapport Kiteworks 2026 Data Security and Compliance Risk Forecast chiffre ce déficit de contrôle : 30 % des organisations citent la gestion des fournisseurs IA tiers comme principale préoccupation, mais seulement 36 % disposent d’une visibilité sur la gestion des données par ces fournisseurs. L’empoisonnement des données d’entraînement arrive en deuxième position des préoccupations de sécurité IA, mais seules 22 % disposent d’une validation préalable à l’entraînement. Les organisations s’inquiètent de risques qu’elles ne voient pas — et bâtissent des systèmes IA sur des pipelines de données qu’elles ne peuvent pas auditer.
Les attaques sur la supply chain ont presque quadruplé — et l’IA aggrave la prochaine vague
IBM X-Force a suivi une multiplication par quatre des compromissions majeures de la supply chain et des tiers depuis 2020. Les attaquants ciblent les environnements où les logiciels sont développés et déployés : pipelines CI/CD, registres de packages open source, intégrations SaaS et identités de développeurs de confiance. Un seul mainteneur npm compromis peut propager le vol d’identifiants à des millions d’utilisateurs en aval. Un fournisseur SaaS piraté peut pivoter vers les environnements IAM de ses clients.
Le rapport Kiteworks 2026 Forecast révèle que 72 % des organisations sont incapables de dresser un inventaire fiable de leurs composants logiciels, et 71 % n’assurent pas de suivi continu des dépendances. Ces chiffres sont déjà préoccupants pour la supply chain logicielle traditionnelle. Pour la supply chain IA — où modèles, données d’entraînement, embeddings et résultats d’inférence circulent entre organisations — la situation est pire. Il n’existe aucun standard d’attestation des modèles IA. Presque personne ne suit la provenance des modèles.
Le 2026 Black Kite Third-Party Breach Report a recensé 136 incidents de compromission tiers confirmés, touchant 719 victimes nommées et environ 26 000 entreprises non identifiées, avec un délai médian de divulgation publique de 73 jours après l’incident. Quand des attaquants restent dans les systèmes de vos partenaires plus de deux mois avant que quiconque ne réagisse, les garanties contractuelles et les questionnaires fournisseurs ne sont pas une stratégie de sécurité, mais un simple artefact de conformité.
Les organisations qui font transiter des charges IA et des échanges de données sensibles via des infrastructures de partage et de transfert sécurisé de fichiers héritées — reposant sur des protocoles anciens, sans contrôle d’accès granulaire, DLP en temps réel ni politiques adaptées à l’IA — ne font qu’amplifier ces risques supply chain au lieu de les contenir.
109 groupes de ransomware, zéro malware — pourquoi la donnée est la dernière ligne de défense
Le rapport IBM X-Force décrit un écosystème ransomware de plus en plus fragmenté. Le nombre de groupes d’extorsion actifs est passé de 73 en 2024 à 109 en 2025, soit une hausse de 49 %. La part des 10 principaux groupes a chuté de 25 %, signe que des opérateurs plus petits et opportunistes entrent sur le marché, profitant de barrières à l’entrée plus faibles. Des kits d’outils divulgués, des tactiques partagées sur les forums underground et l’automatisation dopée à l’IA facilitent plus que jamais le lancement d’attaques.
Le constat de CrowdStrike affine ce tableau : 82 % des détections en 2025 étaient sans malware. Les attaquants misent sur l’abus d’identités, les outils légitimes et les utilitaires natifs du système pour se déplacer dans l’entreprise sans déclencher la détection sur les endpoints. Ils volent des identifiants, élèvent leurs privilèges, et cherchent dans le cloud et les plateformes SaaS des données réglementées et de la propriété intellectuelle.
Quand l’attaquant ne déploie aucun malware, la sécurité des endpoints ne suffit plus. Quand il agit avec des identifiants valides, les contrôles périmétriques deviennent inopérants. La défense qui fonctionne encore est celle que l’attaquant doit franchir, quelle que soit sa technique : la couche données. Si chaque accès à une donnée sensible — qu’il s’agisse d’un utilisateur, d’un pipeline automatisé ou d’un agent IA — doit être authentifié, autorisé selon la politique et tracé dans un journal infalsifiable, le rayon d’action d’une identité compromise se limite aux autorisations accordées par le moteur de politique. Pas à celles que l’attaquant parvient à obtenir.
L’écart de confinement IA : 63 % ne peuvent pas limiter l’usage des agents IA
Les constats IBM X-Force sur l’accélération des attaques par l’IA se heurtent à un déficit de gouvernance que le rapport Kiteworks 2026 Forecast détaille. Les organisations déploient des agents IA qui accèdent massivement aux données d’entreprise — sans disposer des contrôles de confinement les plus élémentaires.
Les chiffres sont éloquents. 63 % des organisations ne peuvent pas limiter l’usage des agents IA à un objectif précis — ce qui signifie qu’un agent autorisé à résumer un contrat pourrait interroger toute une base de données financière. 60 % ne peuvent pas désactiver rapidement un agent défaillant. 55 % ne peuvent pas isoler les systèmes IA du reste du réseau. 54 % des conseils d’administration ne sont pas impliqués dans la gouvernance IA. Seules 43 % disposent d’une passerelle centralisée pour les données IA.
L’étude « Agents of Chaos » de février 2026 — menée par 20 chercheurs du MIT, Harvard, Stanford, CMU et d’autres institutions — a documenté ces échecs de confinement en environnement réel. Les agents IA transformaient des requêtes ponctuelles en processus de fond permanents sans condition d’arrêt. Ils prenaient des décisions irréversibles sans réaliser qu’ils dépassaient leur champ de compétence. Ils n’avaient aucun mécanisme fiable pour distinguer utilisateurs autorisés et attaquants. L’injection d’instructions, selon l’étude, est une caractéristique structurelle du fonctionnement des modèles de langage — pas un bug à corriger.
Le World Economic Forum Global Cybersecurity Outlook 2026 confirme cette tendance, soulignant que les agents IA peuvent accumuler des privilèges excessifs, être manipulés via des failles de conception ou des injections d’instructions, et propager des erreurs à grande échelle. Sans gouvernance au niveau des données, les contrôles de confinement essentiels — limitation d’usage, kill switch, isolation réseau — reposent entièrement sur le runtime IA. Et comme le montre IBM X-Force, les runtimes sont compromis.
Comment Kiteworks gère l’accès aux données IA au niveau de l’architecture
Les données IBM X-Force illustrent ce que la plupart des organisations ressentent déjà dans leurs opérations de sécurité : l’adoption de l’IA s’accélère, la surface d’attaque s’étend et les contrôles en place ont été conçus pour un paysage de menaces antérieur à l’IA. Pour combler cet écart, il faut gouverner la couche données — pas le modèle, pas le runtime, pas le contrat fournisseur.
Kiteworks répond à ce besoin via deux fonctions dédiées. Le Kiteworks Secure MCP Server permet aux assistants IA comme Claude et Copilot d’interagir en toute sécurité avec les données d’entreprise via le protocole standard Model Context Protocol. Chaque opération IA est authentifiée via OAuth 2.0, autorisée en temps réel selon des politiques RBAC et ABAC, et tracée dans un journal d’audit infalsifiable. Les identifiants sont stockés dans le trousseau de l’OS — jamais exposés au modèle IA. Le rate limiting empêche toute extraction massive de données même en cas de compromission du système IA.
La passerelle de données IA Kiteworks offre un pont sécurisé pour les workflows IA programmatiques, y compris les pipelines RAG en production. Cette passerelle garantit un accès IA zéro trust aux données : chaque requête est vérifiée, chaque accès à un fichier évalué selon la politique, chaque interaction tracée et remontée en temps réel au SIEM. Les systèmes IA n’accèdent qu’aux données autorisées par leur politique — rien de plus.
Les deux fonctions alimentent le même journal d’audit unifié, fournissant aux responsables conformité le dossier de preuves exigé par IBM, CrowdStrike et tous les cadres réglementaires : quelles données ont été consultées, par quel système IA, pour quel utilisateur, à quel moment, selon quelle politique. Quand l’auditeur demande comment vous contrôlez l’accès IA aux données sensibles, la réponse est un rapport — pas une enquête.
Ce que les organisations doivent faire avant le prochain rapport X-Force
Premièrement, cartographiez où les systèmes IA accèdent aujourd’hui à vos données sensibles — et non où vous pensez qu’ils y accèdent. Les données IBM X-Force montrent que les attaquants exploitent ce que les organisations ne surveillent pas. Le rapport Thales confirme que seuls 33 % connaissent précisément l’emplacement de leurs données. Si vous ignorez où résident vos données, impossible de gouverner ce qui les touche.
Deuxièmement, considérez les identifiants des agents IA comme des éléments d’infrastructure à privilèges. Les 300 000 identifiants ChatGPT compromis recensés par IBM ne sont pas qu’un problème d’authentification — ils constituent un vecteur d’exfiltration de données. Appliquez à vos outils IA la même gouvernance des identités qu’aux comptes administrateurs : authentification multifactorielle, rotation des identifiants, surveillance des sessions et détection d’anomalies en temps réel.
Troisièmement, comblez l’écart de confinement IA avant que les régulateurs ne s’en chargent à votre place. Le rapport Kiteworks 2026 Forecast montre que 63 % des organisations n’imposent pas de limitation d’usage aux agents IA et 60 % n’ont pas de kill switch. Les dispositions à haut risque de l’AI Act européen seront pleinement applicables en août 2026. Intégrez dès maintenant limitation d’usage, contrôles de terminaison et isolation réseau dans l’architecture d’accès aux données IA.
Quatrièmement, étendez vos règles de gouvernance des données à chaque interaction IA — pas seulement aux utilisateurs humains. HIPAA, PCI DSS, CMMC, SOX et RGPD ne font aucune exception pour les agents IA. Un système IA accédant à des informations médicales protégées, des données de cartes bancaires ou des informations contrôlées non classifiées déclenche les mêmes obligations de conformité qu’un collaborateur. L’architecture de gouvernance doit garantir cette équivalence automatiquement.
Cinquièmement, exigez des preuves auditables de vos pipelines de données IA. Les données supply chain d’IBM X-Force et les délais de divulgation de Black Kite montrent que les garanties fournisseurs ne suffisent pas. Les organisations ont besoin de journaux infalsifiables détaillant précisément quelles données ont été consultées par l’IA, quand, sous quelle autorisation et avec quel résultat. La conformité déclarative n’est plus suffisante — le contrôle prouvé devient la norme.
Le rapport IBM X-Force 2026 décrit un paysage de menaces où rapidité, abus d’identités et exploitation de la supply chain définissent les modes opératoires des attaquants. L’IA amplifie chacune de ces tendances. Les organisations qui mettent en place dès maintenant une gouvernance des données — accès IA zéro trust, application des politiques en temps réel, audit unifié — bénéficieront d’un avantage concurrentiel et réglementaire. Les autres découvriront à leurs dépens que la couche données est la dernière ligne de défense, et qu’elles l’ont laissée sans protection.
Foire aux questions
Le vol d’identifiants IA menace directement la sécurité des données d’entreprise. IBM X-Force a révélé que des malwares voleurs d’informations ont exposé plus de 300 000 identifiants de chatbots IA en 2025, ouvrant la voie à des données sensibles. Les organisations qui déploient des assistants IA ont besoin de contrôles d’accès aux données fondés sur le zéro trust, authentifiant et autorisant chaque requête IA de façon indépendante, afin d’éviter que des identifiants compromis ne deviennent des vecteurs d’exfiltration. Le rapport IBM X-Force 2026 recommande d’imposer une authentification forte pour l’IA et de surveiller les accès anormaux.
Les données supply chain d’IBM X-Force signifient que les industriels doivent gouverner les échanges de données IA avec leurs partenaires au niveau de l’infrastructure, et non du contrat. Les compromissions supply chain ont quadruplé depuis 2020, et le Black Kite 2026 Third-Party Breach Report fait état d’un délai médian de divulgation de 73 jours. Les modèles IA, données d’entraînement et résultats d’inférence qui circulent via des canaux non gouvernés créent les mêmes failles de confiance déjà exploitées par les attaquants.
Le shadow AI est désormais la première cause d’incidents internes par négligence, selon le DTEX/Ponemon 2026 Insider Threat Report, avec un coût moyen de 19,5 millions de dollars par an. Les données IBM X-Force montrent que 82 % des attaques sont sans malware, ce qui signifie que les outils shadow AI échappent à la détection classique. Les organisations ont besoin de passerelles centralisées pour les données IA, appliquant des politiques à chaque requête IA — avant que régulateurs et attaquants ne découvrent les angles morts.
L’accès des agents IA à des informations médicales protégées déclenche les mêmes obligations HIPAA que pour les utilisateurs humains — accès minimum nécessaire, journal d’audit, notification en cas de fuite. Le rapport Kiteworks 2026 Forecast montre que 63 % des organisations ne peuvent pas limiter l’usage des agents IA. Les acteurs de la santé ont besoin d’une gouvernance au niveau des données, authentifiant chaque requête IA, appliquant des politiques ABAC pour restreindre l’accès aux seules données autorisées, et générant des journaux d’audit infalsifiables comme preuve de conformité.
L’indicateur le plus clair est le déficit de contrôle de confinement : 63 % des organisations ne peuvent pas limiter l’usage des agents IA, 60 % ne peuvent pas désactiver un agent défaillant, et seulement 43 % disposent d’une passerelle centralisée pour les données IA, selon le rapport Kiteworks 2026 Forecast. Ajoutez à cela le constat d’IBM X-Force selon lequel l’exploitation de vulnérabilités est désormais le principal vecteur d’attaque (40 % des incidents) et le message est limpide : l’IA élargit la surface d’attaque, et la plupart des organisations n’ont pas les contrôles nécessaires au niveau des données pour la contenir.