Les applications d’IA personnalisées passent en production avant que la sécurité ne suive.
La prévision de Gartner de mars 2026 met enfin un chiffre sur ce que les responsables sécurité pressentaient depuis des mois : d’ici 2028, la moitié des interventions en réponse aux incidents de cybersécurité en entreprise concerneront des applications d’IA développées sur mesure. Cette prévision, publiée par SecurityBrief, reflète un marché où les logiciels pilotés par l’IA sont déployés dans les processus métiers et les services clients plus vite que les équipes en charge de cybersécurité ne peuvent les évaluer, les tester ou élaborer des procédures de réponse adaptées.
Résumé des points clés
- Gartner prévoit qu’en 2028, la moitié des efforts de réponse aux incidents de cybersécurité en entreprise concerneront des applications d’IA développées sur mesure. La plupart des équipes de sécurité n’ont pas de plans d’action, d’outils de détection ni de procédures de confinement pour les incidents propres à l’IA.
- Les processus manuels de conformité à l’IA exposeront 75 % des organisations réglementées à des amendes supérieures à 5 % de leur chiffre d’affaires mondial d’ici fin 2027. Les organisations qui s’appuient encore sur des feuilles de calcul et des collectes de preuves ponctuelles accumulent une dette réglementaire qui s’aggrave à chaque nouveau déploiement d’IA.
- Un tiers du travail IT jusqu’en 2030 sera consacré à la remédiation de la « dette de données IA » : les faiblesses accumulées dans les jeux de données sur lesquels reposent désormais les systèmes d’IA. Des données non structurées, mal classifiées et sécurisées de façon incohérente, disséminées sur des partages de fichiers, plateformes SaaS et systèmes hérités, servent de socle aux stratégies IA des organisations.
- Les équipes de sécurité développent des systèmes d’IA qu’elles ne peuvent pas investiguer en cas d’incident. Un incident impliquant l’IA peut ressembler à un événement de sécurité, à un défaut logiciel, à un problème de qualité des données, ou à ces trois à la fois — et 60 % des organisations n’ont pas d’outils de détection d’anomalies pour faire la différence.
- L’écart entre gouvernance et confinement fait que la plupart des organisations peuvent observer un agent IA malveillant, mais pas l’arrêter. 63 % ne peuvent pas imposer de limites d’usage, 60 % ne peuvent pas désactiver un agent défaillant et 55 % ne peuvent pas isoler l’IA des systèmes sensibles.
Christopher Mixter, VP Analyst chez Gartner, a résumé le problème en termes d’architecture : ces systèmes sont complexes, évolutifs et difficiles à sécuriser dans la durée. Les applications d’IA sur mesure évoluent après leur déploiement — les modèles se réentraînent, les pipelines de données changent, les intégrations évoluent. Les hypothèses de sécurité validées au lancement peuvent ne plus tenir trois mois plus tard.
Le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité confirme cette tendance à grande échelle. 100 % des organisations interrogées prévoient d’intégrer de l’IA agentique dans leur feuille de route. Pourtant, 60 % n’ont pas de détection d’anomalies basée sur l’IA, 51 % utilisent des plans d’action manuels pour la gestion des incidents, et 52 % n’ont jamais testé leurs objectifs de temps ou de point de reprise. Les fonctions de base — sauvegardes immuables (68 %), journaux d’audit (67 %) — existent. Mais les fonctions de détection et de réponse spécifiques à l’IA, indispensables pour les déploiements IA sur mesure, font défaut.
Les incidents IA ne ressemblent pas aux incidents de sécurité traditionnels
Les équipes de réponse aux incidents sont formées à suivre une séquence connue : détection, confinement, éradication, reprise. Les systèmes d’IA bousculent ce modèle. Une défaillance dans une application IA sur mesure peut se manifester comme un incident de sécurité — accès non autorisé à des données suite à un modèle agissant hors de son périmètre prévu. Ou comme un défaut logiciel — échec d’intégration entre le modèle et un service aval. Ou encore comme un problème de qualité des données — pipeline d’entraînement ayant ingéré des données inappropriées. Bien souvent, il s’agit des trois à la fois.
C’est cette ambiguïté qui rend la gestion des incidents IA fondamentalement plus complexe. Les incidents traditionnels ont un périmètre d’impact clair. Les incidents IA, eux, ont un périmètre diffus. Une étude Agents of Chaos publiée en février 2026 par 20 chercheurs du MIT, Harvard, Stanford et CMU a documenté ce phénomène en conditions réelles : des agents IA ont divulgué des informations sensibles, répondu à des requêtes non autorisées et exécuté des actions hors de leur périmètre — sans déclencher d’alerte de sécurité classique. Ces défaillances n’étaient pas des exploits au sens traditionnel. Il s’agissait de comportements émergents que les outils de détection existants ne pouvaient pas identifier.
Le rapport prévisionnel de Kiteworks montre que les organismes publics sont les plus mal préparés : 76 % n’ont pas de détection d’anomalies IA et 76 % utilisent des plans d’action manuels. Le secteur de la santé suit de près — 64 % sans détection d’anomalies IA et 77 % sans test de capacité de reprise. Ce sont pourtant les secteurs qui traitent les données réglementées les plus sensibles, et ils sont les moins prêts à gérer le type d’incident que Gartner annonce comme dominant d’ici 2028.
La conformité manuelle à l’IA : un risque à échéance
La deuxième prévision de Gartner est tout aussi claire : d’ici fin 2027, les processus manuels de conformité à l’IA exposeront 75 % des organisations réglementées à des amendes supérieures à 5 % de leur chiffre d’affaires mondial. Cette prévision cible les organisations qui gèrent encore les risques IA via des feuilles de calcul, des collectes de preuves ponctuelles et des circuits d’approbation manuels — des méthodes qui pouvaient suffire quand la conformité était périodique et l’IA expérimentale.
Ce n’est plus le cas. Le règlement européen sur l’IA entre en vigueur progressivement jusqu’en 2026, avec des obligations pour les systèmes à haut risque pleinement applicables en août 2026. La loi sur l’IA du Colorado s’appliquera en 2026. Les règles californiennes sur la prise de décision automatisée entreront en vigueur en janvier 2027. Chaque nouveau cadre élargit le périmètre de ce qui doit être documenté, surveillé et reporté — et tous exigent des preuves continues, pas des audits trimestriels.
Le rapport prévisionnel de Kiteworks quantifie ce retard opérationnel : 25 % des organisations utilisent encore la conformité manuelle ou périodique comme approche principale. Dans le secteur public, 38 % s’appuient sur des processus manuels. La santé atteint 32 %. Ce sont ces organisations qui risquent le plus de se retrouver dans la situation décrite par Gartner — non parce qu’elles négligent la conformité, mais parce que leur infrastructure ne suit pas le rythme de leurs déploiements IA.
Dette de données IA : le problème caché de l’infrastructure
Jusqu’en 2030, Gartner prévoit qu’un tiers du travail IT sera consacré à la remédiation de la « dette de données IA » — faiblesses dans les jeux de données sur lesquels reposent les systèmes d’IA. Cela englobe des données non structurées, mal classifiées et sécurisées de façon incohérente, disséminées sur des partages de fichiers, plateformes SaaS et systèmes hérités.
C’est le problème de fond. Les applications IA ne sont gouvernées qu’à la hauteur de la gouvernance des données auxquelles elles accèdent. Si la classification est incomplète, les contrôles d’accès incohérents et les politiques de rétention non appliquées, chaque système IA hérite des mêmes vulnérabilités.
Le rapport prévisionnel de Kiteworks détaille ce point au niveau du contrôle. 61 % des organisations ne peuvent pas imposer un étiquetage cohérent des données sur leurs systèmes. 78 % ne peuvent pas valider les données avant leur entrée dans les pipelines d’entraînement IA. 53 % ne peuvent pas restaurer les données d’entraînement après un incident. Le rapport Thales Data Threat 2026 ajoute une autre dimension : seules 33 % des organisations déclarent savoir précisément où résident leurs données. Quand deux tiers des organisations ignorent l’emplacement de leurs données, la dette de données IA n’est pas un risque futur, mais bien un risque actuel.
Les programmes de prévention des pertes de données (DLP) s’étendent pour couvrir les flux de données pilotés par l’IA, mais cette extension atteint vite les limites de l’architecture. Surveiller les requêtes générées par des outils d’IA générative et des systèmes IA agentiques qui récupèrent des informations depuis plusieurs sources exige une couche de gouvernance au niveau des données — et non au niveau du modèle ou de l’application. Les DLP traditionnels étaient conçus pour surveiller les envois de fichiers par des humains, pas les appels API d’agents IA à travers les systèmes de données. Le rapport Black Kite 2026 sur les violations tierces a recensé 136 incidents confirmés en 2025 seulement — et à mesure que les systèmes IA multiplient les connexions automatisées aux référentiels internes et partenaires, la surface d’attaque s’élargit d’autant.
Souveraineté, identité et surface d’attaque IA en expansion
Les autres prévisions de Gartner complètent le tableau de pressions convergentes. D’ici 2027, 30 % des organisations exigeront la souveraineté de leurs contrôles de sécurité cloud — sous l’effet des tensions géopolitiques et des exigences réglementaires sur l’emplacement des données, les accès et l’administration de la sécurité à l’international. D’ici 2028, 70 % des RSSI déploieront des fonctions de visibilité et d’intelligence sur les identités pour réduire la surface d’attaque liée à la gestion des identités et des accès.
Ces deux tendances sont directement liées à la sécurité de l’IA. Le rapport 2026 de Kiteworks sur la souveraineté des données révèle qu’un tiers des organisations a subi un incident de souveraineté des données dans les 12 derniers mois. 29 % des organisations interrogées par Kiteworks citent l’exposition transfrontalière des données IA comme un risque — mais seules 36 % savent où leurs systèmes IA traitent réellement les données. La souveraineté du stockage ne suffit pas si le traitement IA s’effectue dans une autre juridiction.
L’identité est tout aussi exposée. Les agents IA créent une nouvelle catégorie d’identités machines que les outils IAM actuels ne savent pas gérer. Le rapport CrowdStrike Global Threat 2026 montre que 82 % des détections ne concernent plus des malwares — les attaquants utilisent des identifiants valides et des outils natifs. Quand les agents IA fonctionnent eux aussi avec des identifiants valides et des outils natifs, la frontière entre comportement automatisé légitime et attaque par identifiants devient extrêmement difficile à tracer sans une gouvernance des identités adaptée à l’IA.
Gartner prévoit également que plus de 50 % des entreprises adopteront une plateforme de sécurité IA d’ici 2028 pour gérer à la fois les services IA tiers et les applications sur mesure. Cette demande est portée par les attaques par injection de prompt, l’utilisation abusive des données et les contrôles incohérents lorsque chaque entité métier déploie ses propres services IA sans supervision centralisée. Les responsables sécurité doivent vérifier si leurs outils couvrent à la fois l’IA interne et externe — y compris la visibilité sur l’activité IA et l’application des règles sur tous les modes de déploiement. Le rapport DTEX 2026 sur les menaces internes souligne l’urgence : l’IA fantôme est désormais la première cause d’incidents internes par négligence, alors que seules 13 % des organisations ont intégré l’IA à leur stratégie de sécurité.
Comment Kiteworks comble les lacunes de sécurité et de conformité de l’IA sur mesure
Les prévisions de Gartner décrivent un marché où les systèmes IA sont déployés plus vite qu’ils ne peuvent être sécurisés, investigués ou gouvernés par des processus manuels. Kiteworks comble ces lacunes à l’échelle de l’architecture — non par une couche de surveillance supplémentaire, mais par une gouvernance au niveau des données, indépendante du modèle, du framework ou de l’agent IA utilisé.
Pour la réponse aux incidents IA, Kiteworks enregistre une piste d’audit infalsifiable de chaque interaction d’un agent IA avec des données sensibles — qui a autorisé l’agent, quelles données ont été consultées, sous quelle règle, et à quel moment. En cas d’incident, les enquêteurs n’ont pas à reconstituer les faits à partir de journaux fragmentés sur cinq systèmes. Les preuves sont déjà centralisées, structurées et exportables.
Pour l’automatisation de la conformité IA, Kiteworks remplace les validations manuelles par une gouvernance continue. Chaque workflow d’agent IA hérite automatiquement des contrôles de conformité — contrôle d’accès basé sur les attributs (ABAC), chiffrement validé FIPS 140-3, et limitation des usages autorisés. Des tableaux de bord de conformité prêts à l’emploi couvrent directement HIPAA, CMMC, RGPD, PCI DSS et SOX, transformant la gestion des audits périodiques en génération continue de preuves.
Pour la dette de données IA, Kiteworks agit comme plan de contrôle pour les échanges sécurisés de données — un moteur de règles, un journal d’audit, une architecture de sécurité unique couvrant la messagerie électronique, le partage de fichiers, SFTP, MFT, les API, les formulaires de données et les intégrations IA via son Secure MCP Server. La classification des données et les contrôles d’accès s’appliquent de façon cohérente sur tous les canaux, comblant l’écart entre « nous savons où sont nos données » et « nous contrôlons comment l’IA y accède ».
Les priorités des responsables sécurité avant 2028
Premièrement, élaborez dès maintenant des plans d’action spécifiques aux incidents IA. Le rapport prévisionnel de Kiteworks montre que 51 % des organisations utilisent encore des plans manuels et 89 % n’ont jamais testé la gestion d’incidents avec des partenaires tiers. Un incident IA qui touche à la fois le comportement du modèle, la gestion des données et l’intégration des services ne peut pas être traité avec un plan d’action classique.
Deuxièmement, automatisez la collecte des preuves de conformité IA. La prévision de Gartner selon laquelle la conformité manuelle exposera 75 % des organisations réglementées à de lourdes amendes est un ultimatum, pas une simple tendance. Déployez des plateformes qui produisent des preuves de conformité continues et infalsifiables — pas des classeurs d’audit trimestriels.
Troisièmement, recensez et classez les données auxquelles vos systèmes IA accèdent. Le rapport prévisionnel de Kiteworks indique que 61 % des organisations ne peuvent pas imposer un étiquetage cohérent des données. Impossible de gouverner l’accès IA aux données si vous ignorez leur nature et leur emplacement.
Quatrièmement, déployez une gouvernance au niveau des données pour toutes les intégrations IA. Les garde-fous au niveau du modèle et les prompts système ne sont pas des contrôles de conformité. Le rapport de Kiteworks montre que 63 % des organisations ne peuvent pas imposer de limites d’usage aux agents IA. La gouvernance au niveau des données — vérification d’identité, application des règles ABAC, journalisation de qualité probante — est la seule approche qui s’adapte à tous les modèles, frameworks et modes de déploiement.
Cinquièmement, étendez les contrôles de souveraineté aux traitements IA, pas seulement au stockage. Gartner prévoit que 30 % des organisations exigeront la souveraineté de la sécurité cloud d’ici 2027. Le rapport Kiteworks sur la souveraineté des données montre que la plupart des organisations n’ont pas étendu ces contrôles au-delà du stockage — laissant le traitement IA comme une exposition transfrontalière non surveillée.
Les prévisions de Gartner dessinent une fenêtre de deux ans. Les organisations qui en profitent pour bâtir une gestion des incidents adaptée à l’IA, une infrastructure de conformité automatisée et une gouvernance au niveau des données seront prêtes pour un monde où la moitié des incidents cyber concerneront l’IA sur mesure. Les autres découvriront leurs lacunes lors de l’incident — ce qui est la façon la plus coûteuse d’apprendre.
Foire aux questions
Les incidents de cybersécurité IA mêlent événements de sécurité, défauts logiciels et problèmes de qualité des données, d’une façon que les plans d’action traditionnels ne peuvent pas isoler. Un modèle peut accéder à des données non autorisées, produire des résultats erronés ou se comporter de façon imprévisible après réentraînement — sans déclencher d’alerte classique. Gartner prévoit qu’en 2028, la moitié des réponses aux incidents concerneront l’IA sur mesure. Le rapport prévisionnel de Kiteworks montre que 60 % n’ont pas de détection d’anomalies IA aujourd’hui.
Les processus manuels de conformité à l’IA exposent les sociétés de services financiers réglementées à des amendes, car les régulateurs exigent désormais une documentation continue et probante des accès IA aux données, et non de simples audits sur tableur. Gartner prévoit que 75 % des organisations réglementées risquent des amendes dépassant 5 % du chiffre d’affaires d’ici 2027 si elles restent sur des approches manuelles. Le règlement européen sur l’IA impose une gestion structurée des risques pour l’IA à haut risque dans la finance, avec des pénalités pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial.
La dette de données IA désigne les faiblesses accumulées dans les jeux de données sur lesquels reposent les systèmes IA — données non classifiées, mal sécurisées ou gouvernées de façon incohérente, réparties sur des partages de fichiers, plateformes SaaS et systèmes hérités. Le rapport prévisionnel de Kiteworks montre que 61 % ne peuvent pas imposer un étiquetage cohérent et 78 % ne peuvent pas valider les données entrant dans les pipelines d’entraînement. Gartner prévoit qu’un tiers du travail IT jusqu’en 2030 sera consacré à la remédiation de cette dette, à mesure que l’IA élargit l’accès aux référentiels internes.
La gouvernance de l’IA agentique passe par des contrôles au niveau des données, indépendants du modèle ou du framework. Le rapport prévisionnel de Kiteworks montre que 63 % n’ont pas de limitation d’usage et 60 % n’ont pas de « kill switch » pour les agents IA. Kiteworks répond à ce défi avec un contrôle d’accès basé sur les attributs au niveau des données, imposant des limites d’usage, des autorisations temporaires et une journalisation infalsifiable pour chaque interaction agent, quel que soit le socle IA.
La souveraineté de la sécurité cloud pour les applications IA sur mesure va au-delà du lieu de stockage et concerne aussi la juridiction de traitement. Gartner prévoit que 30 % des organisations exigeront la souveraineté de leurs contrôles de sécurité cloud d’ici 2027. Le rapport Kiteworks sur la souveraineté des données montre qu’un tiers des organisations a connu un incident de souveraineté l’an dernier, et que seules 36 % savent où leurs systèmes IA traitent effectivement les données. Un déploiement à locataire unique avec restrictions d’accès géographiques permet de combler cette lacune.