État de la cybersécurité liée à l’IA en 2026 : Ce que les données révèlent sur les perspectives à venir
L’IA n’a pas seulement fait évoluer la cybersécurité en 2025. Elle a brûlé l’ancien manuel pour en écrire un nouveau — en temps réel. Voici ce que plus de 1 800 professionnels de la sécurité pensent de l’avenir, et pourquoi se reposer sur ses acquis n’est plus une stratégie viable.
La cybersécurité a toujours été un affrontement permanent entre attaquants et défenseurs. De nouveaux outils apparaissent, les acteurs malveillants s’adaptent, et le cycle recommence. Mais aujourd’hui, un changement radical s’opère.
L’IA n’a pas simplement rejoint la partie. Elle combat pour les deux camps à la fois — élargissant les cibles, perfectionnant les armes des cybercriminels et transformant les défenses sur lesquelles les organisations comptent. Tout cela simultanément. Personne n’a demandé une telle accélération. Elle s’est imposée malgré tout.
Le rapport State of AI Cybersecurity 2026 illustre ce bouleversement en détail à travers cinq chapitres, en s’appuyant sur des données d’enquêtes menées auprès de professionnels de la sécurité du monde entier. Ce dernier chapitre prend du recul et pose la question que tout le secteur se pose : quelle est la suite, et que doivent faire les responsables sécurité dès maintenant ?
La réponse courte ? Les priorités n’ont pas vraiment changé. Mais ignorer ces priorités a désormais des conséquences bien plus graves.
À retenir
L’adoption de l’IA a devancé la gouvernance de la sécurité — encore une fois. 77 % des organisations intègrent aujourd’hui la gen AI à leur stack sécurité, mais seules 37 % disposent d’une politique IA formelle. L’écart entre la rapidité de déploiement et la supervision protectrice s’est creusé d’une année sur l’autre.
Les attaquants n’attendent pas. 73 % des professionnels de la sécurité affirment que les menaces alimentées par l’IA frappent déjà leur organisation, avec en tête le phishing hyper-personnalisé, l’automatisation des chaînes d’exploitation et les malwares adaptatifs.
Le manque de compétences pèse plus que le manque de budget. Le principal obstacle à la défense contre les menaces IA n’est pas l’argent — c’est l’insuffisance des connaissances et de l’expérience sur la technologie IA. Impossible d’acheter une sortie de crise sur ce point.
Les praticiens et les dirigeants n’ont pas la même vision. Seuls 25 % des opérateurs sécurité de terrain estiment fortement que les outils IA améliorent leur travail, contre 56 % des RSSI. Ceux qui utilisent les outils au quotidien sont les plus difficiles à convaincre.
Les services managés et la consolidation des plateformes s’accélèrent. 85 % des professionnels de la sécurité préfèrent des fonctions SOC managées plutôt qu’un développement interne, et 93 % privilégient désormais les plateformes intégrées aux produits isolés.
Les fondamentaux restent la clé. Malgré le battage médiatique, les priorités pour les 12 prochains mois — outils IA, intégration, préparation et sensibilisation — n’ont pratiquement pas changé depuis l’an dernier. Les bases ne sont pas ennuyeuses. Elles sont essentielles.
L’adoption de l’IA a dépassé toutes les attentes
Plantons le décor. En 2025, l’IA générative et les premiers systèmes agentiques sont passés d’expérimentations contrôlées à des déploiements en production à grande échelle. Les organisations n’ont pas testé timidement. Elles ont plongé tête la première.
Les outils Gen AI sont désormais intégrés aux plateformes SaaS utilisées au quotidien. Les agents IA accèdent aux données et systèmes internes. Les plateformes low-code et no-code permettent aux métiers de créer leurs propres automatisations IA sans même solliciter l’IT. Le rapport révèle que 77 % des organisations utilisent déjà l’IA générative ou des grands modèles de langage dans leur stack cybersécurité. L’IA agentique — où les systèmes agissent de façon autonome ou semi-autonome — est présente dans 67 % des organisations.
Ce rythme est impressionnant. Et il s’explique. Les entreprises constatent de vrais gains de productivité. Les équipes avancent plus vite. Les clients sont mieux servis. Le retour sur investissement est évident, et aucun dirigeant ne veut être celui qui freine pendant que la concurrence prend de l’avance.
Mais cette rapidité génère des problèmes de sécurité que personne n’était prêt à gérer.
Voilà où cela devient délicat : 92 % des professionnels de la sécurité se disent préoccupés par l’utilisation des agents IA dans l’entreprise et leur impact sur la sécurité. Et 44 % sont extrêmement ou très inquiets des conséquences de l’utilisation de LLMs tiers comme Copilot ou ChatGPT. Près de la moitié des professionnels de la sécurité dorment mal à cause des outils que leurs collègues du marketing ou des ventes adoptent avec enthousiasme.
Le décalage est facile à comprendre. Les systèmes IA interagissent avec les données, prennent des décisions et agissent d’une manière que les outils de sécurité existants ne sont pas conçus pour surveiller. Lorsqu’un agent IA accède de façon autonome à une base de données, résume des dossiers sensibles et les envoie via une API, cette chaîne d’actions ne ressemble pas à une fuite de données classique. Mais les dégâts sont identiques.
Vous pensez que votre organisation est sécurisée. Mais pouvez-vous le vérifier ?
Pour en savoir plus :
La surface d’attaque s’est élargie — et complexifiée
Le premier chapitre du rapport est sans appel : l’IA n’a pas seulement agrandi la surface d’attaque. Elle en a complètement changé la forme.
Quand chaque outil SaaS intègre un assistant IA, que les employés testent des modèles publics sur des données d’entreprise pendant la pause déjeuner, et que les agents opèrent avec des degrés d’autonomie variables dans toute l’organisation, « le périmètre » devient une illusion. Chaque intégration IA est une porte d’entrée potentielle, chaque agent un risque interne, chaque interaction avec un modèle public une fuite de données en puissance.
C’est pourquoi l’exposition des données sensibles arrive en tête des préoccupations. 61 % des répondants la citent comme principale inquiétude, suivie par les violations potentielles de la sécurité et de la confidentialité des données (56 %). Ce sont les risques aux conséquences les plus immédiates et concrètes — amendes réglementaires, atteinte à la réputation, et des articles de presse dont aucun RSSI ne veut être la vedette.
Les mesures de sécurité déployées en disent long. Les contrôles d’identité et de rôle arrivent en tête (60 %), suivis des outils de prévention des pertes de données (54 %). Le monitoring des modèles et la détection de dérive sont à 42 %, tandis que la limitation aux modèles auto-hébergés atteint 41 %. Le filtrage des prompts et le contrôle des entrées/sorties — pourtant l’une des défenses les plus directes contre les attaques IA — ne sont en place que dans 34 % des organisations. Et 4 % n’ont littéralement aucun contrôle en place.
Il faut bien mesurer l’ampleur du problème. La perte de données est la plus grande crainte, mais à peine la moitié ont mis en place des outils DLP pour leurs systèmes IA. Il existe un fossé entre les inquiétudes des équipes sécurité et les actions réellement menées.
Et la situation empire. Moins d’organisations déclarent disposer d’une politique IA formelle cette année (37 %) contre 45 % l’an dernier. La part de celles n’ayant aucun projet d’en créer une est passée de 3 % à 8 %. L’année où l’IA a explosé, la gouvernance a reculé. Ce n’est pas seulement un signal d’alerte. C’est une alarme incendie.
Les attaquants utilisent déjà l’IA — et les défenseurs le ressentent
Le deuxième chapitre du rapport se penche sur la menace, et le constat n’est pas rassurant.
Près des trois quarts (73 %) des répondants affirment que les cybermenaces alimentées par l’IA ont déjà un impact significatif sur leur organisation. Il ne s’agit pas d’angoisses sur des risques futurs hypothétiques. C’est la réalité. Aujourd’hui. Dans votre environnement.
Le phishing hyper-personnalisé arrive en tête des préoccupations (50 %), et pour cause : les chercheurs constatent des volumes d’e-mails de phishing à des niveaux records, et les messages sont devenus terriblement crédibles. Repérer un phishing par ses fautes de grammaire, c’est fini. Mais l’automatisation du scan de vulnérabilités et des chaînes d’exploitation (45 %), les malwares adaptatifs (40 %) et la fraude vocale par deepfake (40 %) suivent de près.
Ce qui change vraiment, c’est l’orchestration. Le rapport met en avant des preuves croissantes que les attaquants utilisent l’IA pour mener des opérations de bout en bout, avec des cas présumés de cyberespionnage à grande échelle réalisés avec un minimum d’intervention humaine. Quand l’IA gère la reconnaissance, l’accès initial, l’escalade de privilèges et l’exfiltration dans une chaîne coordonnée, les défenses traditionnelles — conçues pour reconnaître des schémas connus — sont dépassées.
Les chiffres sur la confiance sont révélateurs. Après une légère hausse entre 2024 et 2025, la confiance des défenseurs recule à nouveau. Près de la moitié (46 %) estiment ne pas être suffisamment préparés face aux menaces alimentées par l’IA. La répartition géographique est frappante : le Japon est le plus inquiet, avec 77 % qui se disent non préparés, tandis que le Brésil est le plus confiant, avec 79 % convaincus que leurs capacités sont à la hauteur.
Le principal frein pour les défenseurs ? Le manque de connaissances et de compétences liées à l’IA. Ni le budget, ni les effectifs. Les organisations investissent, mais ne peuvent pas acheter la résolution d’un déficit de compétences que tout le secteur tente de combler en même temps.
L’IA défensive fonctionne — mais la confiance reste un enjeu
Côté outils, le tableau s’éclaircit. 96 % des professionnels de la cybersécurité estiment que l’IA peut réellement améliorer la rapidité et l’efficacité de leur travail. La détection d’anomalies et l’identification de nouvelles menaces (72 %) arrivent en tête, suivies de la réponse automatisée et du confinement (48 %) et de la gestion des vulnérabilités (47 %).
Mais il y a un bémol. Les RSSI et dirigeants sont les plus enthousiastes — 56 % sont pleinement convaincus que l’IA améliore les capacités défensives. Les praticiens en sécurité opérationnelle ? Seulement 25 % partagent cet avis. Ceux qui utilisent ces outils au quotidien sont les moins impressionnés.
Ce décalage doit inquiéter tous les fournisseurs. Cela peut signifier que les praticiens distinguent mieux l’IA réellement utile du simple discours marketing. Ou que les outils ne répondent pas aux besoins de ceux qui en ont le plus besoin. Dans tous les cas, c’est un problème.
La question de la confiance va encore plus loin. 89 % des répondants estiment avoir une bonne visibilité sur le raisonnement de leurs outils IA, mais 74 % limitent l’autonomie de l’IA dans leur SOC tant que l’explicabilité ne progresse pas. Seuls 14 % laissent l’IA prendre des mesures correctives sans validation humaine. La grande majorité (70 %) fonctionne selon un modèle « humain dans la boucle » — l’IA recommande, l’humain valide.
Cela crée un paradoxe gênant. Les organisations ont besoin de la rapidité de l’IA pour contrer les menaces IA, mais elles hésitent (à juste titre) à lui confier les clés. Trouver le bon équilibre — instaurer une vraie confiance sans basculer dans l’automatisation à risque — sera l’un des grands défis de l’année à venir.
Et il existe un angle mort persistant au sommet. Les dirigeants pensent que l’IA fonctionne de manière autonome dans leur SOC bien plus souvent que ce n’est le cas — 18 % croient à une forte autonomie, contre 14 % en réalité. Les décideurs se persuadent qu’ils ont déployé des fonctions de pointe. Les praticiens vivent une réalité plus nuancée.
Les services managés deviennent la norme
L’un des signaux les plus forts du rapport : 85 % des professionnels de la sécurité préfèrent désormais obtenir de nouvelles fonctions SOC sous forme de service managé plutôt que de les développer en interne.
L’équation est simple. Le paysage des menaces dopé à l’IA exige une couverture 24/7, une expertise spécialisée et la capacité de s’adapter rapidement. La plupart des organisations n’ont pas — et n’auront jamais — les talents nécessaires pour faire tourner un SOC augmenté par l’IA en continu. Les fournisseurs de services managés offrent un raccourci vers des capacités qui prendraient des années et des budgets conséquents à construire en interne.
Cela répond directement au déficit de compétences. Quand le principal frein à la défense IA est le manque d’expertise, confier l’opérationnel à des spécialistes qui vivent et respirent ce domaine devient une évidence. Les équipes internes peuvent se concentrer sur la stratégie — gouvernance, gestion des risques, alignement business — tandis que les partenaires managés gèrent le quotidien de la détection et de la réponse.
La tendance touche tous les secteurs. De l’éducation à la finance, en passant par le secteur public et la tech, la préférence pour les services managés dépasse systématiquement 65 %, certains secteurs allant au-delà de 85 %. Ce n’est pas une niche. C’est une réorganisation globale de la sécurité.
La consolidation des plateformes s’accélère
L’autre grand changement opérationnel : les organisations en ont assez de jongler avec quinze produits différents. En 2025, 87 % des répondants privilégiaient les achats de sécurité par plateforme. En 2026, ce chiffre atteint 93 %.
La logique est limpide. Moins de fournisseurs, c’est moins de tableaux de bord, moins de casse-tête d’intégration, moins de cycles de renouvellement, et — surtout — une meilleure visibilité sur les menaces à travers les domaines. Quand la sécurité des e-mails, la détection réseau, la surveillance cloud et la protection des identités communiquent nativement, les menaces qui passeraient entre les mailles des outils cloisonnés sont détectées.
Mais attention : peu de fournisseurs couvrent réellement tout le spectre. L’écart entre le discours marketing et la réalité des fonctions est bien réel, et les praticiens le voient plus clairement que les dirigeants. C’est là que « l’AI-washing » devient dangereux : quand chaque entreprise de cybersécurité colle une étiquette IA sur son produit, les décideurs doivent aller au-delà du branding et examiner ce qui tourne réellement sous le capot.
Quelle est la suite ?
Ce qui est fascinant, c’est que malgré tous ces bouleversements — surface d’attaque qui explose, menaces IA, déploiement rapide de l’IA défensive — les priorités des responsables sécurité pour les 12 prochains mois restent quasiment identiques à celles de l’an dernier.
L’ajout d’outils de sécurité alimentés par l’IA reste la priorité numéro un (65 %). L’amélioration de l’intégration entre les solutions existantes suit (57 %). La préparation cyber et l’optimisation du SOC complètent le top 4.
Mais une évolution se démarque. La formation à la cybersécurité pour les utilisateurs finaux grimpe à 45 %, désormais à égalité avec l’optimisation des processus et technologies pour les membres du SOC. Les entités gouvernementales en font même leur priorité absolue. Le secteur prend conscience que la couche humaine — toujours le maillon faible — mérite autant d’investissement que la technologie, surtout quand le phishing dopé à l’IA transforme chaque boîte mail en champ de mines.
Le message des données est clair : les fondamentaux restent essentiels. Règles, gouvernance, sensibilisation et intégration ne sont pas glamour. Mais tout repose dessus. Les organisations qui déploient les derniers outils IA sans régler d’abord leur gouvernance et leurs processus construisent une maison de verre sous la grêle.
Où en sommes-nous ?
L’IA fait désormais partie intégrante de l’équation sécurité — des deux côtés. Les attaquants l’utilisent pour se développer, se spécialiser et se coordonner. Les défenseurs s’en servent pour détecter, répondre et contenir. Aucun camp ne compte se retirer.
Le rapport 2026 le montre clairement : les organisations les mieux préparées pour l’avenir agissent sur plusieurs fronts à la fois. Elles déploient l’IA défensive avec une vraie gouvernance et une supervision humaine. Elles investissent dans les compétences et les connaissances de leurs équipes, pas seulement dans la technologie. Elles consolident leurs outils dans des plateformes cohérentes plutôt que d’empiler les solutions comme un jeu de Jenga. Et elles s’appuient sur des services managés pour combler les lacunes qu’elles ne peuvent pas combler seules.
L’avenir de la cybersécurité ne repose pas sur un outil unique. Il s’agit de bâtir des programmes de sécurité suffisamment adaptatifs pour suivre un paysage de menaces à vitesse machine. Les organisations qui considèrent l’IA comme une capacité à gouverner — et non comme une simple case à cocher — seront celles qui tiendront la distance.
Aux responsables sécurité qui lisent ceci : pas de panique. Avancez avec détermination. La course à l’armement ne ralentit pas — au contraire, elle s’accélère à un rythme qui fera paraître 2025 dépassé. Mais les équipes qui investissent dès maintenant dans le bon équilibre entre technologie, compétences humaines et processus — et non au prochain trimestre — écriront le prochain chapitre au lieu de simplement y réagir.
Pour découvrir comment Kiteworks peut vous accompagner, réservez votre démo sans attendre !
Foire aux questions
D’après le rapport State of AI Cybersecurity 2026, le phishing hyper-personnalisé est la principale préoccupation (50 %), suivi de l’automatisation du scan de vulnérabilités et des chaînes d’exploitation (45 %), des malwares adaptatifs (40 %) et de la fraude vocale par deepfake (40 %). Ce qui distingue ces menaces des années précédentes, c’est leur niveau de coordination : les attaquants orchestrent désormais des chaînes d’attaque complètes, de la reconnaissance à l’exfiltration de données, avec un minimum d’intervention humaine grâce à l’IA.
77 % des organisations utilisent aujourd’hui l’IA générative ou des grands modèles de langage dans leur stack sécurité, et 67 % ont déployé une IA agentique pour des opérations de sécurité autonomes ou semi-autonomes. Les domaines où l’IA a le plus d’impact sont la détection d’anomalies et l’identification de nouvelles menaces (72 %), la réponse automatisée et le confinement (48 %), et la gestion des vulnérabilités (47 %). Cependant, la plupart des organisations gardent l’humain dans la boucle : seules 14 % autorisent l’IA à prendre des mesures correctives sans validation humaine.
Près de la moitié (46 %) des professionnels de la sécurité estiment ne pas être suffisamment préparés, et la principale raison n’est pas le budget, mais le manque de connaissances et de compétences. Une compréhension insuffisante de la technologie IA et des contre-mesures pilotées par l’IA sont les deux principaux freins à la défense. La pénurie de talents en cybersécurité pousse les organisations à investir, mais elles peinent à trouver ou à former des experts suffisamment vite pour suivre le rythme d’évolution des menaces IA.
L’AI-washing désigne la tendance des fournisseurs à exagérer ou à mal présenter les fonctions IA de leurs produits. Alors que 93 % des organisations privilégient désormais les plateformes pour leurs achats de sécurité, la pression marketing autour des fonctions IA est énorme. Le rapport met en évidence un écart notable entre la perception des dirigeants et l’expérience des praticiens : les RSSI sont bien plus enthousiastes à propos des outils IA que les opérateurs sécurité qui les utilisent au quotidien, ce qui suggère que les promesses marketing ne correspondent pas toujours à la réalité opérationnelle. Les décideurs doivent donc évaluer la gouvernance et les fonctions IA réelles, et ne pas se fier uniquement à l’étiquette.
Les données vont clairement dans ce sens. 85 % des professionnels de la sécurité préfèrent aujourd’hui acquérir de nouvelles fonctions SOC sous forme de service managé plutôt que de les développer en interne. Le paysage des menaces dopé à l’IA exige une expertise spécialisée 24/7 que la plupart des organisations ne peuvent pas recruter ou fidéliser seules. Les fournisseurs de services managés offrent un accès plus rapide à ces capacités tout en libérant les équipes internes pour qu’elles se concentrent sur la gouvernance, la stratégie de risque et les priorités business.
Ressources complémentaires
- Article de blog Architecture Zero Trust : Ne jamais faire confiance, toujours vérifier
- Vidéo Microsoft GCC High : Les inconvénients qui poussent les sous-traitants de la défense vers des solutions plus intelligentes
- Article de blog Comment sécuriser les données classifiées une fois signalées par le DSPM
- Article de blog Instaurer la confiance dans l’IA générative avec une approche Zero Trust
- Vidéo Guide ultime pour sécuriser le stockage des données sensibles à destination des responsables IT