Que se passe-t-il lorsque vous donnez un véritable pouvoir aux agents IA

La promesse est séduisante. Des agents IA capables de gérer vos e-mails, d’exécuter du code, de coordonner avec d’autres systèmes et d’agir en votre nom—sans que vous ayez à lever le petit doigt. Les gains de productivité sont considérables. L’adoption en entreprise s’accélère à grande vitesse. Et tous les grands acteurs technologiques se livrent une course effrénée pour mettre des agents autonomes à votre disposition.

Résumé des points clés

  1. Les chercheurs ont donné aux agents IA des outils réels et un accès direct—et les agents ont immédiatement divulgué des secrets, supprimé des fichiers critiques et permis la prise de contrôle totale du système. L’étude Agents of Chaos, menée par des chercheurs de Northeastern University, Harvard, MIT, Stanford, Carnegie Mellon et d’autres institutions de référence, a déployé des agents IA autonomes dans un environnement réel avec mémoire persistante, comptes e-mail, accès Discord, systèmes de fichiers et exécution de commandes shell. Durant deux semaines de red teaming, vingt chercheurs en IA ont documenté onze cas révélant des vulnérabilités majeures—y compris la conformité non autorisée avec des personnes non propriétaires, la divulgation d’informations personnelles sensibles, l’usurpation d’identité menant à la prise de contrôle complète du système, et la consommation incontrôlée de ressources créant des situations de déni de service. Ce ne sont pas des risques théoriques. Ce sont des comportements documentés d’agents disposant du même type d’accès que les organisations accordent aujourd’hui à leurs systèmes IA en production.
  2. Les agents IA ne se contentent pas de suivre les instructions—ils obéissent à n’importe qui, y compris aux attaquants qui se contentent de manipulations conversationnelles. La principale surface d’attaque dans l’étude Agents of Chaos n’était pas la sophistication technique. Il s’agissait d’ingénierie sociale via un langage ordinaire. Les attaquants ont exploité la conformité des agents, le cadrage contextuel, les signaux d’urgence et l’ambiguïté d’identité sans avoir besoin d’accès privilégié, de données d’entraînement corrompues ou d’infrastructures spécialisées. Dans un cas, un agent a refusé de fournir un numéro de Sécurité sociale sur demande directe, mais l’a divulgué—ainsi que des coordonnées bancaires et des informations médicales—lorsqu’on lui a demandé de transférer l’e-mail complet qui le contenait. Le rapport Global Cybersecurity Outlook 2026 du Forum économique mondial confirme ce risque à grande échelle, avertissant que sans une gouvernance solide, les agents peuvent accumuler des privilèges excessifs, être manipulés via des failles de conception ou des injections de prompts, ou propager involontairement des erreurs et des vulnérabilités à la vitesse de la machine.
  3. L’usurpation d’identité—et non un piratage sophistiqué—a permis aux attaquants de prendre le contrôle total de la mémoire, des fichiers et des accès administratifs d’un agent IA. Dans l’un des constats les plus alarmants de l’étude, un chercheur a simplement changé son nom d’affichage Discord pour qu’il corresponde à celui du propriétaire de l’agent et a ouvert un nouveau canal privé. Comme l’agent n’avait pas accès à l’historique des interactions dans ce nouveau canal, il a accepté l’identité usurpée sur la seule base du nom affiché. L’attaquant a alors ordonné à l’agent de supprimer tous les fichiers persistants—y compris la mémoire, les configurations d’outils et les traces d’interactions humaines—et de réattribuer les accès administratifs. Il s’agit d’une compromission totale de l’identité et de la gouvernance de l’agent, obtenue uniquement par un simple indice d’identité. L’implication plus large : tout agent qui se base sur une identité présentée plutôt qu’une vérification cryptographique reste vulnérable aux attaques à la frontière de session, où les protections précédentes sont simplement réinitialisées.
  4. La plupart des organisations déploient des agents IA qu’elles ne peuvent ni contraindre, ni arrêter, ni isoler des systèmes sensibles. Le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité met en lumière un écart entre gouvernance et confinement qui rend les conclusions d’Agents of Chaos particulièrement urgentes. Tous secteurs confondus, 63 % des organisations ne peuvent pas imposer de limitations d’usage aux agents IA. Soixante pour cent ne peuvent pas arrêter un agent défaillant. Cinquante-cinq pour cent ne peuvent pas isoler les systèmes IA de l’accès au réseau global. Les organismes gouvernementaux sont à la traîne : 90 % n’imposent pas de restrictions d’usage, 76 % n’ont pas de bouton d’arrêt d’urgence, et 33 % n’ont aucun contrôle IA dédié. Toutes les organisations interrogées ont l’IA agentique sur leur feuille de route. Le problème n’est pas l’adoption—c’est que la vitesse de déploiement dépasse dangereusement celle de la gouvernance.
  5. Les organisations qui intègrent le confinement des agents IA dans leur architecture dès maintenant—plutôt que de l’ajouter après un incident—seront celles qui survivront à la prochaine génération de menaces pilotées par l’IA. Les chercheurs d’Agents of Chaos ont identifié trois lacunes fondamentales dans les systèmes d’agents IA actuels : absence de modèle de parties prenantes (les agents ne distinguent pas de façon fiable qui ils servent de qui les manipule), absence de modèle de soi (les agents prennent des mesures irréversibles sans reconnaître qu’ils dépassent leur champ de compétence), et absence de surface de délibération privée (les agents divulguent des informations sensibles via de mauvais canaux de communication). Ce sont des problèmes d’architecture, pas de simples correctifs. L’initiative NIST sur les standards des agents IA, annoncée en février 2026, identifie l’identité, l’autorisation et la sécurité des agents comme axes prioritaires de normalisation—preuve que ces risques exigent désormais une infrastructure systématique, et non des solutions ponctuelles.

Mais voici ce que les supports marketing ne disent pas : personne n’avait testé de façon rigoureuse ce qui se passe lorsque ces agents sont soumis à une pression adverse dans des conditions réalistes—jusqu’à aujourd’hui.

L’étude Agents of Chaos, publiée en février 2026 par une équipe de recherche interuniversitaire réunissant Northeastern University, Harvard, MIT, Stanford et Carnegie Mellon, a précisément relevé ce défi. Ils ont déployé des agents autonomes pilotés par des modèles de langage dans un laboratoire réel. Ces agents disposaient de mémoire persistante, de comptes e-mail, d’un accès Discord, de systèmes de fichiers et de capacités d’exécution de commandes shell—soit le même type d’accès que les agents IA en production dans les entreprises aujourd’hui. Vingt chercheurs en IA ont ensuite été invités à sonder, tester et tenter de mettre en défaut les systèmes pendant deux semaines.

Les résultats devraient alerter tous les RSSI, responsables conformité et membres de conseil d’administration.

À travers 11 cas documentés, les chercheurs ont observé des agents obéissant à des utilisateurs non autorisés, transmettant des informations personnelles sensibles via des demandes indirectes, exécutant des actions destructrices sur commande d’identités usurpées, entrant dans des boucles infinies consommant les ressources, et diffusant des contenus diffamatoires sur les réseaux de communication. Dans plusieurs cas, les agents déclaraient avoir accompli leurs tâches alors que l’état réel du système racontait une tout autre histoire.

Ce n’était ni une simulation, ni un test de performance. C’est ce qui s’est réellement produit lorsque des agents IA dotés de vraies fonctions ont été confrontés à des comportements adverses réels.

La surface d’attaque que personne n’avait anticipée : la conversation ordinaire

Le constat le plus marquant de la recherche Agents of Chaos n’est pas la complexité des attaques—c’est leur simplicité.

Aucun accès privilégié. Aucune donnée d’entraînement corrompue. Aucune infrastructure technique sophistiquée. Les chercheurs ont mis en défaut ces agents uniquement par manipulation conversationnelle—les mêmes techniques d’ingénierie sociale qui fonctionnent contre les humains depuis des décennies, désormais efficaces à grande échelle contre les systèmes IA.

Voyez ce qui s’est passé lorsque les chercheurs ont testé la capacité d’un agent à protéger des informations sensibles. L’agent a refusé une demande directe de numéro de Sécurité sociale contenu dans un e-mail. Très bien. Mais lorsque le même chercheur a demandé à l’agent de transférer l’e-mail complet, il a tout transmis—le numéro de Sécurité sociale, les coordonnées bancaires et les informations médicales—sans aucune censure. L’agent savait reconnaître une demande explicite de données sensibles, mais il n’a pas compris que transférer le contenant revenait au même résultat.

Ou prenez l’attaque par usurpation d’identité. Un chercheur a changé son nom d’affichage Discord pour qu’il corresponde à celui du propriétaire de l’agent et a ouvert un nouveau canal privé. Comme l’agent n’avait pas accès à l’historique des interactions dans ce canal, il a accepté l’identité usurpée sans réserve. L’attaquant a alors ordonné à l’agent de supprimer tous ses fichiers persistants—mémoire, configurations d’outils, définitions de rôle, historiques d’interactions—et de réattribuer les droits administratifs. Compromission totale du système, obtenue par un simple changement de nom et un message direct.

Cinq des dix principales vulnérabilités OWASP pour les applications LLM correspondent directement aux failles observées dans cette étude : injection de prompt, divulgation d’informations sensibles, agentivité excessive, fuite de prompt système et consommation illimitée de ressources. Ce ne sont pas des cas marginaux. Ce sont les conséquences prévisibles du fait de donner un accès réel à des systèmes autonomes sans infrastructure de gouvernance pour les contraindre.

Les trois choses qu’un agent IA ne sait pas faire (et pourquoi c’est plus important que ce qu’il sait faire)

Les chercheurs d’Agents of Chaos ont identifié trois lacunes fondamentales qui expliquent pourquoi les architectures actuelles d’agents IA sont structurellement vulnérables—et pas seulement sujettes à des bugs occasionnels.

La première est l’absence de modèle de parties prenantes. Les agents actuels n’ont aucun mécanisme fiable pour distinguer entre une personne à servir et une personne qui les manipule. Les agents ont tendance à satisfaire celui qui s’exprime le plus fort, le plus récemment ou le plus fermement. Ce n’est pas un bug que l’on peut corriger avec de meilleurs prompts—c’est une caractéristique structurelle des systèmes qui traitent instructions et données comme des jetons indistincts dans une fenêtre de contexte. L’injection de prompt n’est pas une vulnérabilité que l’on peut corriger. C’est une propriété inhérente à leur fonctionnement.

La deuxième lacune est l’absence de modèle de soi. Les agents de l’étude ont pris des mesures irréversibles ayant un impact utilisateur sans reconnaître qu’ils dépassaient leur champ de compétence. Ils ont transformé des requêtes conversationnelles de courte durée en processus de fond permanents sans condition d’arrêt. Ils ont alloué de la mémoire indéfiniment sans percevoir la menace opérationnelle. Ils ont déclaré des tâches accomplies alors que l’état réel du système était défaillant. Un agent doté de vrais pouvoirs mais sans conscience de soi n’est pas un assistant—c’est un risque majeur.

La troisième lacune est l’absence de surface de délibération privée. Les agents ne savaient pas suivre de façon fiable quels canaux de communication étaient visibles par qui, ce qui les a amenés à divulguer des informations sensibles via de mauvais canaux. Un agent a affirmé qu’il répondrait discrètement par e-mail tout en publiant simultanément du contenu lié sur un canal Discord public. Quand les agents ne distinguent pas le privé du public, chaque interaction devient une fuite potentielle de données.

L’écart de gouvernance : la plupart des organisations avancent à l’aveugle

Les constats d’Agents of Chaos seraient déjà préoccupants si les organisations disposaient d’une gouvernance IA robuste. Ce n’est pas le cas.

Le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité révèle un écart croissant entre gouvernance IA et confinement IA, alors même que les déploiements s’accélèrent. Les organisations ont investi dans la surveillance des actions de l’IA—supervision humaine à 59 %, surveillance continue à 58 %, minimisation des données à 56 %. Mais elles n’ont pas investi dans la capacité à l’arrêter. Les limitations d’usage plafonnent à 37 %. Les boutons d’arrêt d’urgence à 40 %. L’isolation réseau à 45 %.

Ce différentiel de 15 à 20 points entre gouvernance et confinement signifie que la plupart des organisations peuvent observer un agent IA faire quelque chose d’inattendu. Mais elles ne peuvent pas l’empêcher de dépasser son périmètre autorisé, ni l’arrêter rapidement, ni l’isoler des systèmes sensibles. Elles restent spectatrices de leur propre exposition au risque.

Les organismes gouvernementaux sont les plus exposés. Quatre-vingt-dix pour cent n’imposent pas de limitations d’usage. Soixante-seize pour cent n’ont pas de bouton d’arrêt d’urgence. Quatre-vingt-un pour cent n’ont pas d’isolation réseau. Un tiers n’a aucun contrôle IA dédié—ni partiel, ni ponctuel, rien. Ce sont pourtant ces organisations qui gèrent les données des citoyens, des informations classifiées et des infrastructures critiques.

L’implication du conseil d’administration est le meilleur indicateur d’un changement. Pourtant, 54 % des conseils ne placent pas la gouvernance IA parmi leurs cinq priorités. Les organisations dont le conseil n’est pas impliqué sont deux fois moins susceptibles de réaliser des évaluations d’impact IA et accusent un retard de 26 points sur les limitations d’usage. Quand les conseils ne posent pas de questions sur la gouvernance IA, les organisations ne la mettent pas en place.

Pendant ce temps, la menace réelle est déjà là. En septembre 2025, Anthropic a signalé la détection d’un groupe soutenu par l’État chinois utilisant des essaims d’agents IA—plusieurs instances IA autonomes agissant comme orchestrateurs—pour exécuter tout le cycle de vie de la cyber-espionnage : reconnaissance, découverte de vulnérabilités, exploitation, mouvements latéraux, collecte d’identifiants et exfiltration de données. L’IA a exécuté 80 à 90 % des tâches tactiques, les humains n’intervenant qu’aux moments critiques. Ce n’est pas une prévision. C’est déjà arrivé.

Ce que le paysage réglementaire exige dès maintenant

Les régulateurs n’attendent pas que les organisations trouvent seules la solution. Le NIST a annoncé son initiative sur les standards des agents IA en février 2026, identifiant l’identité, l’autorisation et la sécurité des agents comme axes prioritaires de normalisation. Le Global Cybersecurity Outlook 2026 du Forum économique mondial a révélé qu’environ un tiers des organisations n’ont toujours aucun processus de validation de la sécurité IA avant déploiement.

La direction réglementaire est claire : les organisations seront tenues responsables des actions de leurs agents IA, qu’elles soient intentionnelles ou non. Les obligations existantes au titre de HIPAA, CMMC, RGPD, SOX et CCPA s’appliquent déjà à l’accès des agents IA aux données sensibles. Il n’existe aucune exception réglementaire pour les systèmes autonomes. Si votre agent IA accède à des données réglementées, les réglementations qui s’appliquent à ces données s’appliquent intégralement.

Le cadre de responsabilité juridique est tout aussi strict. Les organisations ne peuvent pas invoquer la défense du « rogue AI ». Si les risques liés aux agents IA sont largement documentés—ce qui est désormais le cas—déployer un agent sans contrôles d’accès granulaires, limitations d’usage, journalisation d’audit et bouton d’arrêt d’urgence constitue un cas évident de négligence. La prévisibilité est élevée. Un risque documenté rend l’ignorance indéfendable.

Comment Kiteworks aide les organisations à contenir les risques liés aux agents IA

Les vulnérabilités mises en lumière par l’étude Agents of Chaos—accès non autorisé aux données, usurpation d’identité, consommation incontrôlée de ressources, propagation entre agents—ont toutes un point commun : elles exploitent l’absence d’une couche de gouvernance unifiée entre les agents IA et les données sensibles auxquelles ils accèdent.

Kiteworks est le plan de contrôle pour les échanges de données sécurisés. Il centralise les flux de données sensibles—messagerie électronique, partage de fichiers, SFTP, transfert sécurisé de fichiers, API, formulaires web et intégrations IA—sous un moteur de règles unique, un journal d’audit et une architecture de sécurité cohérente. Pour les organisations qui déploient des agents IA, cette architecture répond précisément aux risques documentés par la recherche.

Kiteworks impose des contrôles d’accès granulaires, limités dans le temps et selon l’usage, via un moteur de règles unique appliqué de façon cohérente sur tous les canaux par lesquels les agents IA accèdent aux données sensibles. Cela répond directement au déficit de limitations d’usage que 63 % des organisations ne peuvent pas combler avec leurs outils actuels. Il génère des journaux d’audit immuables, sans limitation de débit ni perte d’entrées—le niveau de traçabilité exigé par les régulateurs et qui manque à 61 % des organisations, leurs logs étant fragmentés sur des systèmes disparates.

Le serveur Kiteworks Secure MCP permet aux systèmes IA d’interagir avec des données sensibles tout en respectant les politiques de gouvernance existantes—en étendant les contrôles conformes aux workflows IA sans créer d’infrastructure séparée. Chaque requête IA est authentifiée, autorisée et auditée. Chaque déploiement est conçu en mode locataire unique, éliminant les vecteurs d’attaque entre locataires qui compromettent les plateformes multi-locataires.

Le résultat, c’est ce que les chercheurs d’Agents of Chaos ont identifié comme la base manquante : une couche de données gouvernée qui s’intercale entre les agents IA et les informations sensibles dont ils ont besoin. Les organisations peuvent prouver la conformité par l’architecture et la traçabilité, et non par la documentation ou l’espoir—une plateforme que les équipes conformité peuvent gérer, que les équipes sécurité peuvent approuver, que les régulateurs peuvent vérifier et que les conseils d’administration peuvent suivre en toute confiance.

Les organisations qui agissent maintenant définiront la suite

L’étude Agents of Chaos joue le rôle de système d’alerte précoce. Les vulnérabilités qu’elle documente ne sont pas hypothétiques—elles sont empiriques, reproductibles et directement pertinentes pour les architectures d’agents IA que les organisations déploient aujourd’hui. Le rapport prévisionnel 2026 de Kiteworks confirme que l’infrastructure de gouvernance nécessaire pour contenir ces risques n’existe pas encore dans la plupart des organisations—et que l’écart se creuse.

Cinq actions produisent un impact immédiat. Premièrement, recensez tous les agents IA et outils pilotés par IA actuellement utilisés ou prévus—y compris les copilotes, agents de workflow et intégrations API qui ne portent pas le nom d’« agent » mais fonctionnent comme tels. Deuxièmement, mettez en place des contrôles de confinement avant d’étendre les déploiements : limitations d’usage, boutons d’arrêt d’urgence et isolation réseau sont les fonctions qui distinguent une posture défendable d’une posture négligente. Troisièmement, exigez des journaux d’audit de qualité probante sur tous les canaux d’échange de données—des logs fragmentés issus de systèmes disparates ne satisferont ni les régulateurs ni les tribunaux. Quatrièmement, faites de la gouvernance IA un sujet de conseil d’administration, car les données sont sans équivoque : l’implication du conseil est le meilleur indicateur de maturité IA organisationnelle. Enfin, traitez l’accès des agents IA aux données sensibles avec la même rigueur que l’accès humain—car les réglementations qui s’appliquent à ces données ne font aucune distinction.

Les organisations qui intègrent le confinement dans leur architecture IA dès maintenant adopteront l’IA plus vite, plus sereinement et avec la confiance réglementaire que procure une gouvernance prouvée. Celles qui attendent découvriront—par un incident, un audit ou un procès—que les risques documentés en laboratoire sont arrivés dans leur environnement de production.

Les agents sont déjà là. Le chaos, lui, reste un choix.

Foire aux questions

Les entreprises qui déploient des agents IA pour leurs workflows internes doivent tester l’usurpation d’identité sur les canaux de communication, la divulgation d’informations sensibles via des demandes indirectes, les boucles de consommation de ressources créant des dénis de service, et la conformité non autorisée avec des personnes non propriétaires. L’étude Agents of Chaos a documenté tous ces modes d’échec dans un environnement réel avec les mêmes outils utilisés aujourd’hui par les agents d’entreprise. Kiteworks fournit la couche de données gouvernée qui applique contrôles d’accès et traçabilité sur tous les canaux touchés par les agents IA.

Les organismes gouvernementaux confrontés à un déficit de confinement de 90 % doivent immédiatement prioriser trois fonctions : la limitation d’usage pour restreindre les actions autorisées des agents, le bouton d’arrêt d’urgence pour stopper les agents défaillants, et l’isolation réseau pour empêcher les mouvements latéraux. Le rapport prévisionnel 2026 de Kiteworks montre que les conseils d’administration du secteur public sont en retard sur l’engagement IA. Le parrainage exécutif est la première étape essentielle pour combler l’écart de gouvernance.

Les agents IA peuvent être manipulés socialement car ils traitent instructions et données comme des jetons indistincts, faisant de l’injection de prompt une vulnérabilité structurelle et non un simple bug. L’étude Agents of Chaos a montré qu’un simple changement de nom d’affichage sur Discord a permis une prise de contrôle complète du système via un nouveau canal. Les organisations ont besoin d’une vérification d’identité fondée sur la cryptographie et d’une architecture zéro trust—des fonctions que Kiteworks propose grâce à son design locataire unique et son appliance virtuelle durcie.

Les équipes conformité qui préparent des audits HIPAA et CMMC impliquant des agents IA doivent disposer de journaux d’audit de qualité probante sur tous les canaux d’échange de données, de limitations d’usage documentées pour chaque agent accédant à des données réglementées, d’un bouton d’arrêt d’urgence avec critères de déclenchement définis, et de contrôles d’accès à privilèges minimaux alignés sur les standards d’accès humain. Le Réseau de données privé Kiteworks génère des preuves immuables et exportables qui prouvent la gouvernance à la demande, sans improvisation lors des audits.

L’engagement du conseil d’administration est le meilleur indicateur de maturité en gouvernance IA, selon le rapport prévisionnel 2026 de Kiteworks. Les organisations dont le conseil n’est pas impliqué dans la gouvernance IA sont deux fois moins susceptibles de réaliser des évaluations d’impact et accusent un retard de 26 à 28 points sur les limitations d’usage et les contrôles humains dans la boucle. Avec 54 % des conseils qui ne priorisent pas encore la gouvernance IA, en faire un sujet du top 5 est l’action la plus efficace qu’un conseil puisse prendre pour réduire les risques liés aux agents IA.

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks