Prévisions 2026 sur la sécurité des données : 15 prévisions incontournables pour les responsables de la sécurité
Toutes les organisations interrogées ont l’IA agentique dans leur feuille de route. Absolument toutes. Zéro exception.
Laissez ce chiffre marquant faire son effet. Pas 95 %. Pas « la plupart des entreprises ». Cent pour cent.
Ce constat à lui seul devrait changer la façon dont les responsables de la sécurité abordent la planification pour 2026. La question n’est pas de savoir si l’IA accédera à vos données sensibles. C’est déjà le cas. La vraie question est de savoir si votre organisation dispose des contrôles nécessaires pour la gouverner lorsque—et non si—quelque chose dérape.
Résumé des points clés
- Le fossé entre gouvernance et confinement est le défi de sécurité majeur de 2026. Les organisations ont beaucoup investi dans la surveillance des systèmes d’IA, mais ont négligé les contrôles permettant de les arrêter. 63 % ne peuvent pas limiter l’usage des agents IA à un objectif précis, 60 % ne peuvent pas désactiver rapidement un agent défaillant, et 55 % ne peuvent pas isoler les systèmes d’IA des réseaux sensibles—soit un écart de 15 à 20 points entre la surveillance et l’action.
- L’implication du conseil d’administration est le meilleur indicateur de préparation à l’IA. 54 % des conseils n’intègrent pas la gouvernance IA dans leurs cinq priorités, et ces organisations accusent un retard de 26 à 28 points sur chaque fonction IA. Le secteur public est le plus exposé, avec 71 % de conseils désengagés alors qu’ils gèrent des données citoyennes et des infrastructures critiques.
- Le secteur public a une génération de retard sur les contrôles IA. 90 % des organisations gouvernementales n’ont pas de limitation d’usage, 76 % n’ont pas de kill switch, et 33 % n’ont aucun contrôle IA dédié. Il ne s’agit pas d’un simple retard, mais d’une différence structurelle qui nécessite une transformation, pas un simple respect des listes de conformité.
- L’AI Act européen devient la référence mondiale en matière de gouvernance. Les organisations non concernées par l’AI Act européen accusent un retard de 22 à 33 points sur chaque contrôle IA majeur. 82 % des organisations américaines ne ressentent pas encore la pression, mais la réglementation s’étend via la supply chain, les opérations internationales et la concurrence, que les organisations en aient conscience ou non.
Les journaux d’audit prédisent mieux la maturité IA que le secteur, la taille ou le budget. Les organisations sans journaux d’audit de qualité accusent un retard de 20 à 32 points sur chaque indicateur de gouvernance IA mesuré. Les 33 % qui n’ont aucun journal d’audit et les 61 % dont les logs sont fragmentés bâtissent leur gouvernance IA sur des fondations instables.
D’après notre enquête menée auprès de 225 responsables sécurité, IT et risques dans 10 secteurs et 8 régions, la réponse est clairement non pour la plupart des organisations. Et l’écart entre ce qui est déployé et ce qui peut être contrôlé est bien plus large que ce que la plupart des dirigeants imaginent—ou veulent admettre.
Cette étude présente 15 prévisions pour la sécurité des données en entreprise à l’horizon 2026. Nous avons constaté un marché pris entre ambition et réalité : des écarts majeurs sur les fonctions spécifiques à l’IA, un fossé qui se creuse entre les organisations dont les conseils d’administration se penchent sur la gouvernance des données IA et celles qui l’ignorent, et une déconnexion profonde entre la surveillance des systèmes IA et la capacité à les arrêter.
2026 sera l’année où la sécurité des données IA passera du « sujet émergent » à la « réalité opérationnelle ». L’alerte que les responsables sécurité lancent depuis des années ? Elle arrive. Voici ce que cela signifie pour votre organisation.
Tableau 1 : 15 prévisions en un coup d’œil
| Prévision | Constat clé | Degré de confiance |
|---|---|---|
| 1 | Le DSPM devient la norme | 61 % ne peuvent pas imposer de balisage |
| 2 | La gouvernance devient « gérée par défaut » | 37 % sous le niveau de maturité « Managed » |
| 3 | Les passerelles IA centralisées deviennent le plan de contrôle | 57 % non centralisées |
| 4 | L’IA agentique devient la norme | 100 % l’ont en feuille de route |
| 5 | Les contrôles de confinement deviennent un enjeu majeur | 63 % sans limitation d’usage |
| 6 | Les risques IA dominent l’agenda sécurité | Seuls 36 % ont de la visibilité |
| 7 | La supply chain s’étend aux attestations IA | 72 % sans SBOM |
| 8 | Le risque tiers se concentre sur la visibilité | 89 % n’ont jamais pratiqué l’IR avec des partenaires |
| 9 | L’IR devient dopée à l’IA | 60 % sans détection d’anomalies IA |
| 10 | Les journaux d’audit deviennent essentiels | 33 % sans journal ; 61 % fragmentés |
| 11 | Les contrôles des données d’entraînement deviennent réglementaires | 78 % ne peuvent pas valider |
| 12 | La gouvernance IA arrive dans toutes les salles de conseil | 54 % des conseils non engagés |
| 13 | L’AI Act européen crée un modèle mondial | Écart de 22 à 33 points |
| 14 | La cryptographie post-quantique se généralise | 84 % ne l’ont pas mise en place |
| 15 | La souveraineté des données devient un impératif IA | 29 % citent l’exposition transfrontalière |
Fossé gouvernance-confinement : le problème central dont personne ne veut parler
Les organisations ont passé deux ans à investir dans des contrôles de gouvernance des données IA. Elles ont déployé la supervision humaine (59 % l’ont mise en place), la surveillance continue (58 %) et la minimisation des données (56 %). Ce sont des fonctions importantes. Les équipes sécurité peuvent présenter des tableaux de bord. Elles peuvent montrer des documents aux auditeurs. Elles peuvent prouver que quelqu’un, quelque part, surveille.
Mais surveiller ne veut pas dire arrêter. Et cette nuance est bien plus importante que ce que la plupart des organisations admettent.
L’investissement dans le confinement—la capacité à stopper les systèmes IA en cas de problème—raconte une toute autre histoire :
- 63 % des organisations ne peuvent pas limiter l’usage des agents IA à un objectif précis
- 60 % ne peuvent pas désactiver rapidement un agent défaillant
- 55 % ne peuvent pas isoler les systèmes IA de l’accès au réseau étendu
Lisez bien ces chiffres. Près de deux tiers des organisations ont déployé des agents IA qu’elles ne peuvent pas maîtriser. Six sur dix ne peuvent pas actionner le kill switch si un agent commence à faire ce qu’il ne devrait pas. Plus de la moitié ne peuvent pas empêcher les mouvements latéraux si un système IA est compromis ou se comporte de façon inattendue.
Cela représente un écart de 15 à 20 points entre observer et agir. La plupart des organisations peuvent regarder un agent IA agir de façon imprévue. Elles ne peuvent pas l’empêcher de dépasser son périmètre autorisé, ni le couper rapidement, ni l’isoler des systèmes sensibles. Elles ont construit des plateformes d’observation sophistiquées pour un problème qui exige des coupe-circuits.
Ce fossé gouvernance-confinement est le défi central de la sécurité à l’horizon 2026. Pourquoi existe-t-il ? Parce que les organisations ont investi dans les contrôles les plus faciles à déployer—la journalisation ne nécessite pas de refonte architecturale—et plus simples à expliquer aux auditeurs. « Nous surveillons » donne l’illusion du contrôle, même si ce n’en est pas un. Le travail difficile, celui qui consiste à bâtir une vraie capacité d’arrêt, a été reporté. Encore et encore.
Les projets visant à combler ce fossé sont les plus nombreux de notre enquête—39 % des organisations prévoient de mettre en place une limitation d’usage, 34 % un kill switch. Les organisations savent exactement ce qui ne va pas. Elles ont identifié les bonnes failles. Cette lucidité est presque rassurante.
Mais un projet ne vaut pas exécution. Jamais. Historiquement, seuls 60 à 70 % des feuilles de route sécurité sont livrées dans les temps et selon le périmètre. Même avec une exécution agressive, un quart des organisations n’aura toujours pas les contrôles de confinement de base fin 2026. Et voici la partie qui dérange : les organisations qui déploient l’IA le plus vite sont souvent celles qui ont les plus grandes lacunes de confinement. Elles accélèrent dans un virage qu’elles ne maîtrisent pas, misant sur le fait qu’elles trouveront les contrôles nécessaires avant d’en avoir besoin.
Ce n’est pas une stratégie. C’est de l’espoir… avec un budget.
Tableau 2 : État des lieux du risque tiers
| Fonction | État actuel |
|---|---|
| Visibilité sur la gestion des données IA par les partenaires | Seuls 36 % l’ont |
| Pratique de l’IR avec des prestataires tiers | Seuls 11 % l’ont fait |
| Playbooks IR communs avec les partenaires | Seuls 13 % en ont |
| Kill switch automatisé pour l’accès partenaire | Seuls 16 % l’ont |
Pourquoi les journaux d’audit prédisent tout le reste
Un constat nous a plus surpris que les autres : les organisations sans journaux d’audit de qualité affichent une maturité bien moindre sur tous les axes IA. Pas de quelques points—de 20 à 32 points.
Les organisations dépourvues de journaux d’audit ont deux fois moins de chances de pouvoir récupérer les données d’entraînement IA (26 % contre 58 %). Elles accusent un retard de 20 points sur la limitation d’usage, 26 points sur la supervision humaine. Il ne s’agit pas de différences marginales, mais de niveaux de maturité radicalement différents. Deux organisations du même secteur, de la même région, de la même taille—l’une avec des journaux d’audit, l’autre sans—n’ont rien en commun sur la gouvernance des données IA. La capacité à disposer de journaux d’audit prédit mieux la posture sécurité que tout autre facteur mesuré.
Pourtant, 33 % des organisations n’ont aucun journal d’audit de qualité. Et voici ce qui devrait inquiéter les responsables sécurité : 61 % supplémentaires ont des logs fragmentés, éparpillés dans différents systèmes. Les logs existent. Mais ils ne sont ni agrégés, ni normalisés, ni exploitables dans un délai utile.
Lorsqu’il faut réagir à un incident ou répondre à un auditeur, les équipes sécurité de ces organisations passent des heures—parfois des jours—à corréler manuellement les logs de différentes plateformes pour tenter de reconstituer les faits. Elles assemblent un puzzle dont les pièces sont réparties dans une douzaine de boîtes, chacune avec son format, sa politique de rétention, ses lacunes et incohérences.
Cela ne constitue pas une preuve. C’est de l’archéologie. Et l’archéologie ne résiste pas aux procédures réglementaires ou aux notifications de violation.
La vérité qui dérange les équipes infrastructure : impossible de bâtir une gouvernance des données IA sur une infrastructure fragmentée. Les organisations qui tentent de construire des journaux d’audit de qualité sur des systèmes d’échange de données disjoints—plateformes séparées pour la messagerie, le partage de fichiers, le MFT, le stockage cloud, les outils collaboratifs, les systèmes IA—bâtissent sur des fondations incapables de supporter la charge. La fragmentation n’est pas un simple inconvénient, c’est une limite structurelle qu’aucun outil ne peut vraiment compenser.
La gouvernance des données d’entraînement révèle des tendances similaires, avec des implications qui touchent à la réglementation, un territoire que la plupart des organisations n’ont pas encore cartographié. Lorsque les régulateurs demandent « Comment prouvez-vous qu’il n’y a pas d’informations personnelles identifiables dans votre modèle ? »—78 % des organisations ne savent pas répondre. Elles entraînent ou affinent des modèles sans valider l’intégrité des données d’entrée. Elles espèrent que les données d’entraînement sont propres, sans aucun mécanisme de vérification.
Quand une personne exerce son droit à l’effacement sous RGPD, CCPA/CPRA ou les nouvelles réglementations IA—53 % n’ont aucun moyen de supprimer ses données des modèles déjà entraînés. Elles devront soit réentraîner depuis zéro (coûteux, long, souvent irréaliste pour la production), soit espérer que personne ne pose la question (une stratégie à l’espérance de vie très limitée).
Le « droit à l’oubli » arrive pour l’IA. La trajectoire réglementaire est claire—tous les grands cadres de protection des données étendent les droits des personnes aux données d’entraînement et d’inférence IA. Et presque personne n’est prêt à s’y conformer.
L’effet conseil : pourquoi l’engagement du leadership compte plus que le budget ou les effectifs
L’engagement du conseil d’administration est le meilleur indicateur de maturité IA dans notre enquête. Plus pertinent que le secteur, la région, la taille ou le budget sécurité.
54 % des conseils n’intègrent pas la gouvernance des données IA dans leurs cinq sujets prioritaires. Ces organisations accusent un retard de 26 à 28 points sur chaque indicateur IA majeur. Pas certains indicateurs. Tous ceux que nous avons mesurés.
Les organisations sans engagement du conseil ont deux fois moins de chances de réaliser des analyses d’impact IA (24 % contre 52 %). Elles accusent un retard de 26 points sur la limitation d’usage, 24 points sur la supervision humaine. Le constat est clair et constant : si les conseils ne posent pas de questions sur la gouvernance des données IA, les organisations ne la mettent pas en place. Les ressources vont ailleurs. Les priorités changent selon ce que le leadership mesure. Les équipes sécurité peuvent plaider autant qu’elles veulent, sans attention du conseil, la gouvernance des données IA perd la bataille budgétaire.
La variation sectorielle est révélatrice. Le secteur public affiche le plus grand écart : 71 % des conseils ne s’impliquent pas dans la gouvernance des données IA. Les services professionnels sont en tête avec 80 % d’engagement—soit 51 points d’écart entre le dernier et le premier.
Concrètement, cela signifie que le secteur public gère des données citoyennes, des informations classifiées et des infrastructures critiques avec le moins de supervision du conseil sur le risque IA, tous secteurs confondus. Les organisations qui détiennent les données les plus sensibles et les enjeux les plus élevés sont celles dont le leadership accorde le moins d’attention à ce nouveau vecteur de risque.
Les conseils d’administration du secteur santé affichent 55 % de désengagement. Les services financiers sont à 40 %. La technologie—le secteur qui construit et déploie ces systèmes—compte encore 47 % de conseils qui ne priorisent pas la gouvernance des données IA.
Cette corrélation appelle une action claire, non technique : si la gouvernance des données IA n’est pas à l’ordre du jour de votre conseil, mettez-la-y. Les responsables sécurité qui attendent que le conseil découvre le sujet par lui-même laissent filer le calendrier. Les données montrent que là où le leadership s’implique, les fonctions clés sont développées. Là où il regarde ailleurs, non. C’est aussi direct et prévisible que cela.
Tableau 3 : Engagement du conseil par secteur
| Secteur | Conseil NON impliqué sur la gouvernance IA | Écart avec le leader |
|---|---|---|
| Gouvernement | 71 % | -51 points |
| Santé | 55 % | -35 points |
| Technologie | 47 % | -27 points |
| Services financiers | 40 % | -20 points |
| Services professionnels | 20 % | Référence |
Constats sectoriels et régionaux : les leaders, les retardataires et les leçons à tirer
Le secteur public a une génération de retard. Pas un simple retard—un retard structurel. Les chiffres sont suffisamment parlants pour être répétés : 90 % sans limitation d’usage. 76 % sans kill switch. 33 % sans aucun contrôle IA dédié.
Laissez ce dernier chiffre vous interpeller : un tiers des organisations publiques ont déployé l’IA sans rien—pas de contrôle partiel, pas de mesure ad hoc, rien—pour encadrer l’accès de ces systèmes aux données sensibles. L’IA est en production. Les données citoyennes circulent dans les systèmes. Il n’existe aucune gouvernance IA spécifique reliant les deux.
Ces organisations gèrent des données citoyennes et des infrastructures critiques avec des contrôles IA en retard sur tous les autres secteurs mesurés. Le défi de la gouvernance des données IA dans le secteur public exige une transformation, pas une simple amélioration incrémentale. Une checklist ne comblera pas un écart générationnel. Adopter le cadre de l’AI Act européen comme base—même sans obligation légale—serait un point de départ, pas une fin en soi.
L’Australie fait figure de référence—et prouve que les compromis ne sont pas inévitables. Les organisations australiennes affichent +10 à 20 points sur presque tous les indicateurs, avec les pipelines de mise en œuvre les plus solides de l’enquête. Mais ce qui rend l’Australie vraiment instructive, c’est qu’elle montre que sécurité et innovation ne sont pas incompatibles.
Les organisations australiennes combinent adoption rapide de l’IA et contrôles robustes. Elles ne choisissent pas entre aller vite et bien gouverner. Elles font les deux, en parallèle, et creusent l’écart sur les deux plans. Elles accumulent les avantages au lieu de sacrifier la sécurité à la vitesse ou l’inverse.
Toute organisation qui prétend ne pas pouvoir mettre en place de contrôles sans ralentir l’innovation devrait étudier le modèle australien. L’excuse ne tient pas face aux faits.
Le secteur santé affiche de graves lacunes en réponse aux incidents malgré la gestion des données les plus sensibles. 77 % des organisations santé n’ont jamais testé leurs objectifs de temps de reprise. Elles ignorent combien de temps durera la reprise jusqu’au moment où l’incident survient—le pire moment pour découvrir que vos hypothèses étaient fausses. 64 % n’ont pas de détection d’anomalies IA. 68 % fonctionnent avec des playbooks IR manuels.
Ces organisations gèrent des informations médicales protégées avec des capacités IR qui ne survivront pas à un incident IA sérieux. L’association de données très sensibles, d’une forte exposition réglementaire et de lacunes opérationnelles majeures crée un risque concentré qui devrait alerter tout le secteur.
L’industrie manufacturière voit des angles morts partout. 67 % citent le manque de visibilité comme préoccupation majeure—21 points au-dessus de la moyenne mondiale. Supply chains complexes et multi-niveaux, avec très peu de visibilité sur la circulation des données. Les prestataires de gestion du risque tiers transmettent les données à leurs propres prestataires, qui les transmettent à leur tour, sans visibilité à chaque étape.
Pour l’industrie, la visibilité sur les tiers n’est pas un simple atout ou un projet à venir. C’est vital. Impossible de sécuriser ce qu’on ne voit pas, et l’industrie voit moins que presque tout le monde.
Les services professionnels opèrent sous pression—et cette pression porte ses fruits. 80 % d’attention du conseil. 67 % d’adoption de passerelles centralisées. 80 % avec des règles éthiques IA. Ces chiffres sont en tête de presque toutes les catégories mesurées. Pourquoi de telles performances hors norme ?
L’exposition des données clients explique cette posture offensive. Chaque décision de contrôle dans les services professionnels est évaluée sous un prisme strict : que se passe-t-il si des données clients fuitent ? Si des informations sensibles se retrouvent dans un modèle inexplicable ou un jeu d’entraînement non auditable ? Quid de la réputation, de la responsabilité, de la relation client ?
La peur est justifiée. La gouvernance qui en découle montre ce que donne un investissement dicté par la crainte, canalisée de façon productive plutôt que paralysante.
Les préoccupations de souveraineté régionale varient aussi fortement, révélant où l’application réglementaire a déjà changé les pratiques, et où les organisations fonctionnent encore sur la théorie.
Les organisations du Moyen-Orient (EAU et Arabie Saoudite) affichent 42 à 45 % de préoccupations sur la gestion IA des tiers—sous l’effet d’exigences explicites de localisation des données, assorties de vraies sanctions en cas de non-conformité. L’Allemagne se distingue avec 60 % d’inquiétude sur le partage non autorisé, soit près du double de la moyenne mondiale. L’application du RGPD a rendu la responsabilité du flux de données très concrète pour les organisations allemandes. Elles ont vu des collègues sanctionnés. Elles ont observé les amendes. Elles se sont adaptées.
Ces régions perçoivent clairement le problème de souveraineté car elles ont déjà ressenti la pression réglementaire. Les autres fonctionnent encore en sursis, pensant que l’application ne les atteindra pas ou qu’elles auront le temps de s’y préparer.
Risque tiers : la crise de visibilité que personne n’a résolue
Les questionnaires annuels aux fournisseurs ne suffisent plus dans un environnement piloté par l’IA. L’approche « case à cocher » de gestion du risque tiers—envoyer un questionnaire, recevoir des réponses calibrées, archiver pour la conformité, recommencer l’an prochain—était déjà insuffisante pour la gestion des données classiques. Pour l’IA, elle n’est pas seulement insuffisante. C’est du théâtre.
Mais 89 % des organisations n’ont rien pour la remplacer. Elles savent que l’ancienne méthode ne fonctionne pas. Elles n’ont pas bâti la nouvelle.
Le problème de visibilité est grave et largement ignoré :
- Seuls 36 % ont une visibilité sur la gestion des données par les partenaires dans les systèmes IA
- 89 % n’ont jamais pratiqué la réponse aux incidents avec leurs prestataires tiers
- 87 % n’ont pas de playbooks IR communs avec leurs partenaires
- 84 % n’ont aucun mécanisme automatisé pour révoquer rapidement l’accès partenaire
Quand un partenaire subit une violation—et cela arrive régulièrement—près de neuf organisations sur dix improviseront leur réponse. Pas de playbook. Pas d’exercice. Pas de plan de communication coordonné. La première fois qu’elles géreront un incident commun avec un fournisseur critique sera lors d’un vrai incident, quand l’enjeu est maximal, le temps compté, et que personne n’a le luxe d’improviser.
La supply chain logicielle amplifie ces risques dans des proportions que la plupart des organisations n’ont pas encore envisagées. 72 % ne peuvent pas produire d’inventaire fiable de leurs composants logiciels. Lorsqu’une nouvelle faille de type Log4j apparaîtra—et il y en aura d’autres—près des trois quarts des organisations devront s’activer pour évaluer leur exposition, faute de SBOM. Elles appelleront les fournisseurs, chercheront dans la documentation, vérifieront les systèmes manuellement pendant que le temps file.
La supply chain IA est pire, car au moins les composants logiciels disposent de standards d’inventaire, même si la plupart ne les appliquent pas. Il n’existe aucun standard pour les attestations de modèles IA. Presque personne ne suit la provenance des modèles de façon systématique. Les organisations savent qu’elles en ont besoin—35 % citent le risque supply chain IA dans leurs trois principales préoccupations. Elles ont raison.
Mais les outils et standards n’existent pas encore, et les organisations ne construisent pas de solutions alternatives. Elles attendent que quelqu’un d’autre résolve le problème tout en continuant à déployer des modèles qu’elles ne peuvent pas vérifier. C’est un risque calculé, et ce calcul pourrait mal vieillir.
Tableau 4 : État des lieux du risque tiers
| Fonction | État actuel |
|---|---|
| Visibilité sur la gestion des données IA par les partenaires | Seuls 36 % l’ont |
| Pratique de l’IR avec des prestataires tiers | Seuls 11 % l’ont fait |
| Playbooks IR communs avec les partenaires | Seuls 13 % en ont |
| Kill switch automatisé pour l’accès partenaire | Seuls 16 % l’ont |
Trajectoire réglementaire : l’AI Act européen comme modèle mondial de facto
Les organisations non concernées par l’AI Act européen accusent un retard de 22 à 33 points sur chaque contrôle IA majeur. Les écarts ne sont pas marginaux—ils sont structurels :
- 74 % des organisations non concernées n’ont pas d’analyse d’impact IA (contre 41 % des concernées)
- 72 % sans limitation d’usage (contre 46 %)
- 84 % n’ont jamais fait de red teaming IA (contre 61 %)
- 48 % sans supervision humaine (contre 26 %)
L’AI Act européen crée un marché à deux vitesses, que les organisations hors Europe en aient conscience ou non. Celles soumises à la pression réglementaire bâtissent une infrastructure de gouvernance parce qu’elles y sont obligées. Celles qui ne le sont pas, pour l’instant, n’agissent guère. Le levier réglementaire fonctionne comme prévu—et il crée un écart qui coûtera cher à combler plus tard.
82 % des organisations américaines déclarent ne pas ressentir la pression de l’AI Act européen. Ce « pour l’instant » pèse lourd. La réglementation se diffuse par des mécanismes qui ne nécessitent pas de juridiction directe : exigences de gestion du risque supply chain (clients européens exigeant la conformité de leurs fournisseurs américains), opérations internationales (toute organisation opérant en Europe doit s’y conformer pour ces activités), et benchmark concurrentiel (la « bonne gouvernance » sera définie par ceux qui la mettent en place les premiers, et ce sont les Européens).
Les organisations qui considèrent l’AI Act comme un problème européen se retrouveront avec 22 à 33 points de retard sur la gouvernance des données IA, une fois le cadre devenu la norme mondiale. Elles devront rattraper leur retard plus tard, à un coût et dans des délais bien plus contraints, ou perdront des marchés au profit de concurrents qui auront investi plus tôt. Aucun de ces scénarios n’est enviable.
La souveraineté des données s’étend aussi du stockage au traitement, et la plupart des organisations n’ont pas adapté leurs contrôles ni leur réflexion. Savoir où résident les données ne suffit plus. 29 % des organisations citent les transferts IA transfrontaliers comme exposition majeure, mais la plupart n’ont résolu la souveraineté que pour le stockage—pas pour le traitement, l’entraînement ou l’inférence.
Une requête envoyée à un fournisseur cloud IA peut être traitée dans une autre juridiction, servir à affiner des modèles hébergés ailleurs, ou générer des résultats qui traversent plusieurs frontières avant de revenir à l’utilisateur. Les contrôles classiques de résidence des données ne couvrent pas cela. Ils ont été conçus pour la donnée au repos, pas pour la donnée en mouvement dans les pipelines IA. Les organisations qui gouvernent le stockage tout en ignorant le traitement devront bientôt répondre à des questions de conformité de plus en plus délicates, à mesure que les régulateurs s’adaptent au fonctionnement réel de l’IA.
La cryptographie post-quantique représente une autre urgence que la plupart des organisations ignorent ou reportent. 84 % ne l’ont pas mise en place. Près de la moitié ne l’utilisent pas du tout, et nous pensons que le chiffre réel est pire—certains répondants ont probablement surestimé leurs capacités.
La menace « collecter maintenant, déchiffrer plus tard » est déjà active—des adversaires peuvent intercepter des données chiffrées aujourd’hui et attendre que les ordinateurs quantiques les cassent. Pour les données qui doivent rester confidentielles dix ans ou plus—dossiers médicaux, informations financières, documents classifiés, propriété intellectuelle, documents juridiques—la fenêtre d’action se referme. Les organisations qui n’ont pas commencé à planifier sont déjà en retard sur un calendrier de migration qui s’étend jusqu’en 2030 et au-delà.
Que faire maintenant : actions prioritaires à ne pas reporter
Priorités immédiates (T1-T2 2026) :
Combler le fossé du kill switch. 60 % des organisations ne peuvent pas désactiver rapidement un agent IA. Lorsqu’un incident majeur révélera cette faille—et il surviendra, car les incidents révèlent toujours les lacunes—vous ne voudrez pas devoir expliquer à votre conseil pourquoi ce contrôle de base faisait défaut. C’est le strict minimum pour exploiter l’IA en production, et la plupart des organisations n’en disposent pas.
Mettre en place la limitation d’usage. 63 % n’imposent aucune limite à ce que les agents IA sont autorisés à faire. C’est la plus grande faille de notre enquête, et celle qui risque le plus de faire la une en cas d’échec. Un agent IA qui peut accéder à tout finira par accéder à ce qu’il ne devrait pas.
Auditer vos journaux d’audit. 33 % n’ont aucun journal de qualité. 61 % supplémentaires ont des logs dispersés, impossibles à corréler dans un délai utile. Impossible de bâtir une gouvernance IA sur une infrastructure fragmentée, même avec les meilleurs outils. Si vos logs nécessitent des jours de corrélation manuelle pour reconstituer un incident, ce ne sont pas des journaux d’audit. Ce sont des archives historiques à faible valeur probante.
Recenser vos cas d’usage IA agentique. Impossible de gouverner ce qu’on ne connaît pas. Le shadow AI se répand plus vite que la plupart des équipes sécurité ne l’imaginent—des directions métiers déploient des fonctions jamais évaluées, jamais approuvées, dont la sécurité ignore l’existence. Commencez par la visibilité sur ce qui tourne.
Évaluer l’exposition IA via les tiers. Seuls 36 % ont de la visibilité sur la gestion des données IA par leurs partenaires. Les autres font confiance aux contrats pour les protéger de risques qu’ils ne voient pas et n’ont pas mesurés. Découvrez ce que vos fournisseurs font de vos données dans leurs systèmes IA, pas ce que leurs contrats prétendent qu’ils font.
Tableau 5 : Principaux risques IA pour la sécurité et la confidentialité
| Risque | % citant comme préoccupation majeure | Niveau de maturité des contrôles |
|---|---|---|
| Gestion des données par les fournisseurs IA tiers | 30 % | Faible — seuls 36 % ont de la visibilité |
| Empoisonnement des données d’entraînement | 29 % | Très faible — 22 % valident avant l’entraînement |
| Fuite de données personnelles via les sorties/embeddings | 27 % | Faible — 37 % ont une limitation d’usage |
| Menaces internes amplifiées par l’IA | 26 % | Moyen — 59 % ont une supervision humaine |
| Données personnelles dans les prompts | 35 % | Très faible — surtout des règles, rarement techniques |
| Shadow AI | 23 % | Très faible — peu d’outils de découverte |
Priorités à moyen terme (T2 2026) :
Déployer la détection d’anomalies IA. 60 % en sont dépourvus—c’est la plus grande faille IR mesurée. Passer de 40 % de couverture à un niveau adéquat nécessite achat d’outils, construction de pipelines de données, réglage des modèles, processus de tri des alertes et formation du personnel. Ce n’est pas un déploiement rapide. Lancez-vous maintenant pour disposer de la fonction d’ici la fin de l’année.
Bâtir la gouvernance des données d’entraînement. 78 % ne peuvent pas valider les données entrant dans les pipelines d’entraînement. 77 % ne peuvent pas tracer la provenance. 53 % ne peuvent pas récupérer les données d’entraînement après incident. Les régulateurs vont vous demander comment vous savez ce qu’il y a dans vos modèles. « On ne sait pas » n’est pas une réponse qui vieillira bien.
Établir des playbooks IR communs avec les fournisseurs critiques. 87 % en sont dépourvus. 89 % n’ont jamais pratiqué la réponse aux incidents avec des partenaires. Entraînez-vous avant d’avoir à gérer un incident réel ensemble, car le pire moment pour définir les protocoles de communication et les droits de décision, c’est en pleine crise.
Consolider l’infrastructure d’échange de données fragmentée. 61 % fonctionnent avec des systèmes disjoints incapables de supporter des journaux d’audit de qualité ou une gouvernance IA unifiée. Les menaces modernes exigent une infrastructure moderne, et on ne passe pas du fragmenté à l’unifié à coups de rustines.
Exiger des attestations IA dans les renouvellements de contrats tiers. Les questionnaires ne suffisent plus. Intégrez des exigences sur la gestion IA dans vos contrats fournisseurs 2026 tant que vous avez du poids dans la négociation, pas après un incident qui forcera la discussion.
Le fossé va se creuser avant de se réduire
Voici la tendance qui devrait alerter tout responsable sécurité pour 2026 et au-delà : les organisations qui déploient l’IA le plus vite sont aussi celles qui la gouvernent le mieux. Celles qui débutent n’ont presque rien en place—79 à 81 % manquent des contrôles de confinement de base—et elles vont accélérer sous la pression concurrentielle.
On assiste à une bifurcation, pas à une convergence. Les leaders accumulent les avantages. Chaque contrôle mis en place facilite le suivant. Chaque incident évité leur donne une longueur d’avance que les concurrents n’auront qu’en l’ayant vécu. Les retardataires s’enfoncent à chaque trimestre. Le fossé entre organisations prêtes et non prêtes va se creuser jusqu’en 2026, pas se réduire.
La prochaine vague d’incidents IA viendra probablement d’organisations qui déploient à marche forcée sans l’infrastructure de gouvernance que les plus expérimentées ont bâtie à force d’essais et d’erreurs. Elles apprendront les mêmes leçons—mais de façon plus publique, plus coûteuse, et avec moins de temps pour rebondir avant le prochain incident.
Les 15 prévisions de notre rapport complet indiquent où va le marché. Les failles révèlent où les organisations sont exposées. 100 % ont l’IA en feuille de route. La majorité ne peut pas la gouverner. 63 % ne peuvent pas limiter l’usage. 60 % ne peuvent pas désactiver un agent défaillant. 53 % ne peuvent pas récupérer les données d’entraînement après incident.
Les prévisions vous montrent la direction. Les failles vous indiquent vos vulnérabilités. Ce qui arrivera à votre organisation dépend entièrement de ce que vous ferez de ces informations.
Foire aux questions
100 % des organisations interrogées ont l’IA agentique dans leur feuille de route—zéro exception. Cette étude, menée auprès de 225 responsables sécurité, IT et risques dans 10 secteurs et 8 régions, révèle des plans d’adoption universels de l’IA. Le défi n’est pas de savoir si les organisations vont déployer l’IA, mais si elles disposent des contrôles de gouvernance et de confinement pour la gérer en toute sécurité.
Le fossé gouvernance-confinement désigne l’écart de 15 à 20 points entre la capacité des organisations à surveiller les systèmes IA et leur capacité à les arrêter. Si 59 % disposent d’une supervision humaine et 58 % d’une surveillance continue, seuls 37 % ont mis en place une limitation d’usage et 40 % un kill switch. La plupart peuvent observer un agent IA agir de façon inattendue, mais ne peuvent ni l’empêcher de dépasser son périmètre autorisé ni le couper rapidement.
Seules 40 % des organisations disposent d’un kill switch pour désactiver rapidement un agent IA défaillant. Les 60 % restantes n’ont pas ce contrôle de confinement de base, ce qui signifie qu’elles ne peuvent pas stopper rapidement un système IA qui sort des paramètres attendus ou accède à des données non autorisées. Même avec une exécution agressive des projets, les projections indiquent que 26 à 36 % en seront toujours dépourvues fin 2026.
Le secteur public est le plus exposé, avec 90 % sans limitation d’usage, 76 % sans kill switch et 33 % sans aucun contrôle IA dédié. Le secteur santé suit avec de graves lacunes en réponse aux incidents—77 % n’ont jamais testé leurs objectifs de reprise et 64 % n’ont pas de détection d’anomalies IA. L’industrie manufacturière fait face à d’importants problèmes de visibilité sur les tiers, 67 % citant des angles morts dans leur supply chain.
Les organisations dotées de journaux d’audit de qualité affichent un avantage de 20 à 32 points sur chaque indicateur IA mesuré, y compris la récupération des données d’entraînement, la supervision humaine et la limitation d’usage. Les journaux d’audit servent de socle à la responsabilité, à la réponse aux incidents et à la conformité des données. Les 33 % sans journaux et les 61 % avec des logs fragmentés ne peuvent pas bâtir une gouvernance IA efficace, car ils ne peuvent pas prouver ce qui s’est passé en cas de problème.
Les organisations non directement concernées par l’AI Act européen accusent un retard de 22 à 33 points sur les contrôles IA, dont les analyses d’impact, la limitation d’usage et le red teaming. La réglementation s’étend mondialement via les exigences de gestion du risque supply chain (clients européens exigeant la conformité), les opérations internationales et le benchmark concurrentiel. 82 % des organisations américaines déclarent ne pas ressentir la pression, mais l’AI Act définit de fait ce qu’est une « bonne gouvernance IA » à l’échelle mondiale, créant un marché à deux vitesses entre organisations conformes et non conformes.