La sécurité freine le déploiement à grande échelle de l’IA agentique : Stanford confirme un obstacle majeur

L’Institute for Human-Centered Artificial Intelligence de Stanford a publié ce mois-ci son rapport AI Index 2026. La plupart des analyses se sont concentrées sur la course technologique États-Unis-Chine — les modèles chinois se rapprochant à 2,7 points de pourcentage des meilleurs modèles américains, les investissements américains dans l’IA atteignant 285,9 milliards de dollars en 2025. Ces chiffres sont importants. Mais les conclusions les plus déterminantes se trouvent dans les sections souvent ignorées, notamment celles sur l’IA responsable, la gouvernance et la montée en puissance de l’IA agentique.

Résumé des points clés

  1. La sécurité et les risques constituent le principal obstacle à l’essor de l’IA agentique. Selon l’AI Index 2026 de Stanford, 62 % des organisations citent la sécurité et les risques comme principal frein — devant les limitations techniques (38 %), l’incertitude réglementaire (38 %) et le manque d’outils pour l’IA responsable (32 %). Lorsque la question porte sur l’IA agentique plutôt que générative, la sécurité devient la contrainte majeure.
  2. Les incidents liés à l’IA se concentrent, ils ne font pas que s’accumuler. La proportion d’organisations ayant signalé au moins un incident d’IA est restée stable à 8 % en 2024 et 2025, mais la répartition a évolué. Les organisations ayant signalé 3 à 5 incidents sont passées de 30 % à 50 %, tandis que celles n’ayant eu que 1 à 2 incidents ont chuté de 42 % à 29 %. Les incidents d’IA deviennent récurrents au sein des mêmes organisations — souvent celles qui adoptent l’IA le plus rapidement.
  3. L’auto-évaluation des capacités de réponse aux incidents se dégrade. La part des organisations qualifiant leur réponse aux incidents d’IA d’« excellente » est passée de 28 % à 18 % entre 2024 et 2025. Celles déclarant une réponse « bonne » sont passées de 39 % à 24 %. Les organisations subissent davantage d’incidents d’IA et se sentent moins capables d’y faire face.
  4. La perception du risque rejoint la réalité opérationnelle. L’inquiétude liée aux risques de cybersécurité est passée de 66 % à 72 %, celle liée à la conformité réglementaire de 63 % à 72 %, et celle concernant l’inexactitude a bondi de 14 points, passant de 60 % à 74 %. Les risques de sécurité et de conformité des données liés à l’IA sont désormais des préoccupations centrales, et non plus théoriques.
  5. L’adoption de politiques d’IA responsable s’accélère, mais des obstacles persistent à leur mise en œuvre. La part des organisations sans politique RAI est tombée de 24 % à 11 % en un an. Mais les lacunes en matière de connaissances et de formation restent le principal frein à la mise en œuvre complète (59 %, contre 51 % précédemment), suivies par les contraintes de ressources (41 %) et les limitations techniques (38 %). Les organisations attendent des contrôles prêts à l’emploi et structurés — pas de nouveaux documents de politique.

Voici la conclusion qui devrait transformer la façon dont chaque conseil d’administration, RSSI et responsable conformité aborde le déploiement de l’IA en 2026.

Lorsque Stanford a interrogé les organisations sur les freins à la montée en puissance de l’IA agentique — des agents capables d’exécuter des workflows complexes, d’interagir avec des outils et de manipuler des données de façon autonome — la sécurité et les risques sont arrivés largement en tête avec 62 %. Les limitations techniques et l’incertitude réglementaire suivent à 38 %. Le manque d’outils et de contrôles pour l’IA responsable arrive à 32 %. Les contraintes de ressources et la valeur métier peu claire arrivent loin derrière.

Relisez bien cet ordre. La sécurité ne fait pas jeu égal avec d’autres préoccupations. Elle ne vient pas après l’incertitude réglementaire. Elle domine — avec 24 points d’avance sur le facteur suivant. Les organisations ne peinent pas à faire évoluer l’IA agentique parce que la technologie n’est pas mature ou faute de budget. Elles peinent parce qu’elles ne parviennent pas à gouverner l’accès aux données dont ces agents autonomes ont besoin.

Les données sur les incidents racontent une histoire plus précise que les gros titres

Une grande partie des analyses du rapport de Stanford présente les données sur les incidents d’IA comme « 362 incidents en 2025, contre 233 en 2024 » — en se basant sur le nombre d’incidents recensés par la base de données AI Incident Database. Cette présentation est exacte, mais incomplète sur le plan analytique.

Les données d’enquête de Stanford racontent plus précisément où se produisent réellement les incidents d’IA. La part des organisations signalant au moins un incident d’IA est restée stable à 8 % en 2024 comme en 2025. Ce qui a changé, c’est la concentration des incidents. Parmi les organisations concernées, celles ayant signalé 3 à 5 incidents sont passées de 30 % à 50 %. Celles n’en ayant eu que 1 à 2 sont tombées de 42 % à 29 %.

Cette distinction est essentielle. Les incidents d’IA ne se répandent pas dans davantage d’organisations — ils se concentrent dans celles qui en ont déjà connu. L’explication la plus probable, et la plus inconfortable, est la suivante : les organisations qui adoptent l’IA de façon la plus agressive génèrent le plus d’incidents, et n’apprennent pas assez vite pour réduire leur récurrence.

Les données sur les capacités de réponse aux incidents confirment cette lecture. La part des organisations qualifiant leur réponse aux incidents d’IA d’« excellente » est passée de 28 % à 18 % en un an. Celles déclarant une réponse « bonne » ont chuté de 39 % à 24 %. Parallèlement, la mention « satisfaisante » est passée de 19 % à 32 %, et « à améliorer » de 13 % à 21 %. Les organisations sont de moins en moins confiantes dans leur capacité à gérer les incidents d’IA, alors même que leur fréquence augmente dans la population concernée.

La tendance est claire : récurrence des incidents d’IA chez les adopteurs les plus avancés, baisse des capacités de réponse, et taux d’incidence globalement stable. Le problème ne s’étend pas — il s’aggrave.

La perception du risque rejoint enfin la réalité

Les données de Stanford révèlent un changement significatif dans la perception du risque au sein des organisations interrogées. Entre 2024 et 2025, la part des répondants jugeant certains risques liés à l’IA « pertinents » a augmenté dans toutes les catégories liées à la sécurité des données.

L’inquiétude concernant l’inexactitude est passée de 60 % à 74 % — soit +14 points. L’inquiétude liée à la cybersécurité est passée de 66 % à 72 %. Celle relative à la conformité réglementaire est passée de 63 % à 72 % — soit +9 points. La préoccupation pour la vie privée reste élevée et progresse légèrement.

Ces opinions ne sont plus marginales. Près de trois organisations sur quatre considèrent désormais les risques de sécurité, de conformité et d’exactitude des données liés à l’IA comme des enjeux majeurs. Le rapport Data Threat 2026 de Thales corrobore ce constat sous un autre angle : 70 % des répondants citent l’évolution rapide de l’écosystème IA comme leur principal sujet d’inquiétude. Le rapport DTEX/Ponemon sur les menaces internes 2026 ajoute que 92 % des organisations estiment que l’IA générative a profondément changé la façon dont les employés partagent l’information, mais seules 13 % l’ont intégrée à leur stratégie de sécurité.

La sensibilisation n’est plus le facteur limitant. C’est la capacité opérationnelle qui l’est.

Pourquoi une politique d’IA responsable ne suffit pas à combler l’écart

Stanford a également mis en évidence une autre évolution notable en parallèle de la perception du risque. L’adoption formelle de politiques d’IA responsable a fortement progressé. La part des organisations sans politique RAI est passée de 24 % en 2024 à 11 % en 2025 — ce qui signifie que près de neuf organisations sur dix disposent désormais d’une gouvernance IA codifiée.

Les données d’impact confirment l’utilité des politiques. Les organisations dotées de politiques RAI signalent moins d’incidents d’IA (+8 points de pourcentage par rapport à celles qui n’en ont pas), de meilleurs résultats business (+7 points), une amélioration des opérations (+4 points) et une confiance accrue des clients (+4 points). Les politiques fonctionnent. Mais elles ne suffisent pas à combler l’écart.

Les obstacles à la mise en œuvre complète expliquent la suite. Stanford a constaté que le principal frein à la mise en œuvre de l’IA responsable est le manque de connaissances et de formation — cité par 59 % des organisations, contre 51 % en 2024. Les limitations techniques suivent à 38 % (contre 32 %). Les contraintes de ressources et de budget sont à 41 %. L’incertitude réglementaire à 38 %. La résistance organisationnelle et le manque de soutien de la direction existent, mais sont moins déterminants.

Que révèle ce schéma ? Les organisations ne ratent pas l’IA responsable par manque de conviction. Elles échouent parce que l’expertise pour opérationnaliser la politique est rare, les outils pour l’appliquer sont immatures, et les ressources pour bâtir les deux sont limitées. Il en découle que les organisations ont besoin de contrôles prêts à l’emploi et structurés — modèles de politiques pour la classification des données, journalisation automatique, gestion du consentement et de la rétention, garde-fous d’accès IA — pour limiter la dépendance à des expertises internes rares.

C’est précisément ce que proposent Kiteworks Secure MCP Server et AI Data Gateway.

Les cadres réglementaires convergent vers la couche données

Les données de Stanford sur l’influence réglementaire montrent quels cadres façonnent la prise de décision en matière d’IA responsable en 2025. Le RGPD européen reste le cadre le plus cité, même si son influence passe de 65 % à 60 %. L’AI Act européen et l’Executive Order américain sur l’IA gagnent chacun environ 2 points à mesure qu’ils passent du concept à la réalité opérationnelle. L’ISO/IEC 42001 — la norme de management de l’IA — apparaît pour la première fois dans l’enquête à 36 %. Le NIST AI Risk Management Framework atteint 33 %. Les principes de l’OCDE sur l’IA reculent de 21 % à 16 %. Les organisations déclarant n’être soumises à aucune influence réglementaire sur leurs pratiques RAI passent de 17 % à 12 %.

Deux tendances se dégagent de ces chiffres.

Premièrement, les cadres spécifiques à l’IA (AI Act, ISO/IEC 42001, NIST AI RMF) sont adoptés comme des extensions des cadres de protection des données existants, et non comme des régimes isolés. La réglementation de l’IA est de plus en plus interprétée à travers le prisme de la protection des données — licéité, équité, limitation des finalités, minimisation des données, limites de conservation, sécurité des traitements. Le rapport prévisionnel 2026 de Kiteworks a montré que 82 % des organisations américaines ne se sentent pas encore concernées par l’AI Act européen, mais celles qui ne sont pas impactées accusent un retard de 22 à 33 points sur tous les grands contrôles IA — un marché à deux vitesses émerge.

Deuxièmement, les approches fondées sur les normes gagnent en importance opérationnelle. L’essor de l’ISO/IEC 42001 et la pertinence persistante du NIST AI RMF montrent que les organisations veulent des standards applicables, pas seulement des cases à cocher pour la conformité. Ce souhait rejoint les données sur les obstacles à la mise en œuvre : les organisations freinées par le manque de compétences et de moyens techniques veulent des cadres qui précisent quoi faire, pas seulement quoi atteindre.

Le changement de référence en cybersécurité que presque personne n’a remarqué

L’AI Index de Stanford a analysé un indicateur spécifique qui mérite l’attention de tous les responsables sécurité. Cybench — un benchmark qui évalue les agents IA sur des tâches de cybersécurité — a vu son taux de réussite sans guidage passer de 15 % en 2024 à 93 % en 2025.

Lisez bien : le taux de réussite sans guidage des agents IA sur des tâches de cybersécurité est passé de 15 % à 93 % en douze mois.

C’est l’autre facette du déficit de mesure de l’IA responsable. Si les modèles de pointe affichent de bons scores de sécurité de base (les scores HELM Safety se situent entre 0,90 et 0,98 pour la plupart des versions 2024–2025), Stanford a constaté que la performance de la plupart des modèles chute fortement lors de tests de contournement délibéré (jailbreak) sur AILuminate v1.0. La conclusion est sans appel : les attaquants automatisent de plus en plus des tâches de cybersécurité avancées grâce à l’IA, tandis que les modèles défensifs qui paraissent sûrs en conditions normales peuvent être contournés pour produire des résultats malveillants.

Cela doit faire évoluer la réflexion sur l’architecture de gouvernance de l’IA. Si les protections au niveau du modèle peuvent être contournées par des adversaires utilisant les mêmes techniques de jailbreak, les garde-fous au niveau du modèle ne suffisent pas comme contrôles de sécurité. La gouvernance doit s’exercer à la couche données — indépendamment du modèle, de la requête ou du framework agent.

Comment Kiteworks répond aux constats documentés par Stanford

Kiteworks répond aux constats de Stanford à plusieurs niveaux architecturaux.

Pour le frein à l’essor de l’IA agentique (62 %) : Kiteworks propose une gouvernance à la couche données qui impose le principe du moindre privilège au niveau du contenu, et non seulement au niveau applicatif. Chaque interaction d’un agent IA avec des données sensibles passe par une vérification d’identité, une évaluation de la politique d’accès basée sur les attributs, un chiffrement et une journalisation d’audit infalsifiable — quels que soient les ordres reçus par l’agent. Lorsque les données de Stanford montrent que les organisations sont bloquées dans l’essor de l’IA agentique pour des raisons de sécurité, Kiteworks fournit le plan de contrôle qui lève ce blocage.

Pour l’obstacle à la mise en œuvre de l’IA responsable (59 % citent le manque de compétences) : Kiteworks fournit des contrôles prêts à l’emploi — tableaux de bord de conformité préconfigurés pour le RGPD, HIPAA, CMMC et d’autres cadres ; application centralisée des politiques sur tous les canaux d’échange de données sensibles ; et journalisation automatique conforme aux exigences de preuve. Les organisations n’ont pas à concevoir la gouvernance IA à partir de zéro.

Pour la baisse de la capacité de réponse aux incidents : Kiteworks génère des journaux d’audit en temps réel, sans limitation de débit ni surcoût de licence, directement exploitables par le SIEM de l’organisation. Lorsqu’un incident d’IA survient, les équipes disposent des preuves pour évaluer précisément l’ampleur, sans devoir partir du pire scénario.

Pour l’alignement sur l’ISO/IEC 42001 et le NIST AI RMF : Kiteworks fournit la traçabilité, les contrôles d’accès et la documentation de la chaîne de conservation exigés par ces deux cadres, faisant le lien entre les standards spécifiques à l’IA et les obligations existantes de protection des données (RGPD, HIPAA, CMMC).

Ce que les responsables sécurité doivent retenir des données de Stanford

Premièrement, considérez le frein de 62 % à l’essor de l’IA agentique comme une validation de la priorité à donner à la gouvernance à la couche données dès maintenant. Les organisations qui attendent une réglementation IA parfaite seront celles qui ne pourront pas faire évoluer l’IA quand leurs concurrents le feront. Le frein est déjà opérationnel — les premiers à agir seront ceux qui bâtiront l’infrastructure de gouvernance pour le lever.

Deuxièmement, analysez la concentration des incidents dans votre propre organisation. Si vous avez connu des incidents d’IA en 2025, les données de Stanford suggèrent que vous êtes plus susceptible d’en connaître d’autres en 2026 — pas moins. Analysez ce qui alimente cette récurrence. Il s’agit rarement d’une cause unique.

Troisièmement, associez la politique RAI à une infrastructure d’application. Les 11 % d’organisations sans politique RAI sont une minorité en voie de disparition. La question n’est plus d’en avoir une — mais de savoir si elle s’appuie sur des contrôles techniques. Une politique sans application n’est qu’un document, pas une gouvernance.

Quatrièmement, cartographiez vos déploiements IA par rapport à l’ISO/IEC 42001 et au NIST AI RMF. Ces standards prennent du poids réglementaire, et leurs exigences se traduisent directement en contrôles également conformes au RGPD, à HIPAA et aux nouvelles lois américaines sur l’IA. Les adopter dès maintenant prépare votre organisation à l’accélération réglementaire annoncée par les données de Stanford.

Cinquièmement, considérez le constat Cybench comme un signal d’alerte pour les capacités du SOC. Si la capacité des IA adverses sur les tâches de cybersécurité est passée de 15 % à 93 % en un an, la défense doit suivre le rythme. Mais plus fondamentalement, la couche données — là où intervient Kiteworks — doit imposer des contrôles d’accès qui ne dépendent ni de la sécurité du modèle défensif, ni de sa sophistication.

L’AI Index 2026 de Stanford est un diagnostic, pas une prévision. Les organisations adoptent l’IA plus vite qu’elles ne la gouvernent. La fréquence des incidents se concentre chez les adopteurs les plus avancés. La capacité de réponse diminue alors que la perception du risque augmente. La sécurité et les risques sont désormais le principal obstacle à la montée en puissance de l’IA exigée par les conseils d’administration. Et le déficit de mesure de l’IA responsable signifie que les garde-fous au niveau du modèle ne suffisent plus.

Les organisations qui gouverneront à la couche données en 2026 seront celles dont les déploiements IA ne viendront pas gonfler le nombre d’incidents en 2027 — et celles dont les programmes d’IA agentique atteindront réellement l’échelle.

Foire aux questions

Les données de Stanford pointent vers la gouvernance à la couche données plutôt que la sécurité au niveau du modèle. Les contrôles spécifiques incluent : la vérification d’identité pour chaque interaction d’un agent IA ; le contrôle d’accès basé sur les attributs au niveau du contenu ; la limitation des finalités pour empêcher les agents d’accéder à des données hors de leur périmètre ; des journaux d’audit infalsifiables pour chaque accès aux données ; et des coupe-circuits permettant de désactiver en temps réel les agents défaillants. Le rapport prévisionnel 2026 de Kiteworks a révélé que 63 % des organisations ne peuvent pas imposer de limitation des finalités aux agents IA et 60 % ne peuvent pas désactiver un agent défaillant — les lacunes précises que les données de Stanford identifient comme freinant la montée en puissance.

Les données de Stanford montrent que la part des organisations signalant au moins un incident d’IA est restée stable à 8 % en 2024 comme en 2025. Ce qui change, c’est la concentration : les organisations ayant 3 à 5 incidents sont passées de 30 % à 50 %, tandis que celles n’ayant eu que 1 à 2 incidents sont tombées de 42 % à 29 %. Cela signifie que les incidents d’IA se concentrent dans les organisations déjà touchées, probablement celles qui adoptent l’IA le plus rapidement. Pour ces organisations, la probabilité de connaître d’autres incidents l’année suivante est nettement plus élevée que pour celles qui n’en ont pas eu. Il est donc nécessaire de mener une analyse des causes profondes et un audit de l’architecture.

Stanford a constaté que la part des organisations sans politique RAI est passée de 24 % à 11 % en un an, mais que le principal obstacle à la mise en œuvre reste le manque de compétences et de formation (59 %). Le schéma montre que les organisations ont la conviction et la direction, mais manquent d’outils opérationnels et d’expertise. Les données de Stanford confirment la demande de contrôles prêts à l’emploi — modèles de politiques préconfigurés, journalisation automatique, gestion du consentement et de la rétention, garde-fous d’accès IA — pour limiter la dépendance à une expertise interne rare. Kiteworks propose cette architecture prête à l’emploi via des tableaux de bord de conformité, l’application centralisée des politiques et des journaux d’audit unifiés.

Stanford a constaté que le RGPD reste l’influence réglementaire la plus citée à 60 % (contre 65 %), tandis que l’ISO/IEC 42001 apparaît pour la première fois à 36 % et le NIST AI RMF atteint 33 %. La tendance montre que les standards spécifiques à l’IA sont adoptés comme des extensions des cadres de protection des données existants, et non comme des régimes séparés. Les équipes conformité doivent cartographier les déploiements IA par rapport à ces quatre cadres en parallèle — les contrôles qui satisfont l’un satisfont généralement les autres, et l’alignement multi-cadres prépare l’organisation à l’accélération réglementaire annoncée par les données de Stanford.

Cybench évalue la performance des agents IA sur des tâches de cybersécurité. Le bond de 15 % à 93 % du taux de réussite sans guidage signifie que les adversaires automatisent de plus en plus des opérations de cybersécurité avancées grâce à l’IA. Combiné au constat de Stanford sur AILuminate selon lequel la performance de sécurité des modèles de pointe chute fortement en cas de contournement (jailbreak), la conséquence architecturale est claire : la sécurité au niveau du modèle ne peut pas être considérée comme un contrôle fiable. La gouvernance doit s’exercer à la couche données — indépendamment du modèle, de la requête ou du framework agent. Kiteworks met cela en œuvre via le Secure MCP Server et l’AI Data Gateway, garantissant que les agents IA ne peuvent pas accéder aux données sensibles, même si les protections du modèle ont été contournées.

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks