Les équipes en charge de la conformité croulent sous la pression de l’IA—et la plupart des organisations ne sont pas prêtes à leur venir en aide

La décision est venue d’en haut. Il fallait adopter l’IA. Gagner en efficacité. Rester compétitif.

Mais personne n’a demandé à l’équipe conformité si elle était prête.

Une nouvelle enquête menée par Compliance Week et konaAI dresse un constat sans appel de ce qui se passe lorsque l’ambition des dirigeants se heurte à la réalité opérationnelle. Près de 200 responsables conformité, éthique, gestion des risques et audit ont donné leur avis, et leur message est clair : la révolution de l’IA avance plus vite que l’infrastructure, les règles et la formation nécessaires pour l’accompagner.

Résultat ? Les professionnels de la conformité se retrouvent pris en étau : ils subissent la pression d’adopter des outils auxquels ils ne font pas entièrement confiance, travaillent avec des systèmes de données qui n’ont pas été conçus pour l’IA et doivent naviguer dans un environnement réglementaire qui soulève plus de questions qu’il n’apporte de réponses.

Ce n’est pas qu’un problème technologique. C’est une crise de gouvernance qui s’installe lentement.

À retenir

1. La qualité des données reste le principal obstacle au succès de l’IA

Deux tiers des professionnels de la conformité citent la qualité ou l’accès aux données comme leur principal défi pour mettre en œuvre l’IA. Sans données propres, accessibles et bien gouvernées, même les outils d’IA les plus avancés produisent des résultats peu fiables auxquels les équipes conformité ne peuvent pas se fier.

2. La plupart des professionnels de la conformité ne font pas confiance aux résultats de l’IA

Seuls 42 % des répondants font confiance aux résultats produits par les outils d’IA, tandis que 48 % restent neutres. Ce déficit de confiance oblige les équipes conformité à vérifier manuellement les résultats de l’IA, ce qui annule les gains d’efficacité qui justifiaient l’adoption de ces outils.

3. La pression des dirigeants dépasse la capacité d’adaptation des organisations

Près de la moitié des initiatives d’adoption de l’IA viennent de la direction, et non des équipes conformité. Cette approche descendante crée un dangereux décalage entre l’ambition stratégique et l’infrastructure, la formation et les règles nécessaires à une mise en œuvre responsable.

4. L’IA fantôme crée des risques de conformité cachés

Quarante-deux pour cent des répondants s’inquiètent de l’utilisation inconnue ou non maîtrisée de l’IA par les employés dans leur organisation. Lorsque les outils officiels d’IA sont difficiles à utiliser ou mal intégrés, les employés se tournent vers des alternatives non autorisées qui exposent les données sensibles à des systèmes externes.

5. L’incertitude réglementaire prive les équipes conformité de garde-fous

Plus d’un quart des professionnels de la conformité citent l’incohérence des règles sur l’IA et l’incertitude réglementaire comme des difficultés majeures. En l’absence de directives fédérales et face à des réglementations d’État très variables, les équipes conformité doivent prendre des décisions cruciales sans cadre clair à suivre.

Le problème de la qualité des données dont personne ne veut parler

Quand 66 % des professionnels de la conformité affirment que la qualité ou l’accès aux données est leur principal défi pour l’IA, ce n’est pas un détail. C’est une faille structurelle dans toute la stratégie IA.

Voici la réalité dérangeante : l’IA ne vaut que par la qualité des données qu’elle consomme. Si vous lui fournissez des dossiers incomplets, des informations obsolètes ou des jeux de données cloisonnés, vous obtiendrez des résultats allant de l’inutile au dangereux. Dans la conformité — où la précision est essentielle et où l’erreur peut déclencher une action réglementaire —, « données poubelles » signifie vraiment « résultats poubelles ».

Pourtant, de nombreuses organisations ont déployé des outils d’IA sans avoir d’abord réglé le désordre de leur environnement de données. Des années de dettes de données accumulées, des formats incohérents, des restrictions d’accès et des systèmes obsolètes qui ne communiquent pas entre eux ont créé un véritable parcours d’obstacles que les solutions IA ne peuvent pas franchir d’un simple saut.

Les résultats de l’enquête montrent que les équipes conformité ne rejettent pas l’IA par résistance au changement. Elles peinent parce que la base n’est pas solide. On ne construit pas un gratte-ciel sur des sables mouvants, et on ne peut pas faire fonctionner efficacement la conformité IA sur une infrastructure de données fragmentée.

Quelles normes de conformité des données comptent vraiment ?

Pour en savoir plus :

La confiance se mérite, elle ne s’installe pas

Peut-être le chiffre le plus révélateur de l’enquête : seuls 42 % des professionnels de la conformité font confiance aux résultats qu’ils obtiennent des outils d’IA. Près de la moitié restent neutres — ni confiants ni méfiants face à ce que produit la technologie.

Pour une profession fondée sur la vérification, la précision et la responsabilité, ce déficit de confiance est lourd de conséquences. Les responsables conformité valident des rapports destinés aux régulateurs. Ils formulent des recommandations qui impactent l’activité. Ils sont souvent la dernière ligne de défense avant qu’un problème ne devienne une crise.

Demander à ces professionnels de se fier à des résultats d’IA auxquels ils ne font pas confiance les place dans une position intenable. Soit ils ralentissent pour tout vérifier — annulant ainsi les gains d’efficacité —, soit ils acceptent un risque qu’ils sont formés à éviter.

Mohan Krishna, Executive Director et Head of Product Innovation chez konaAI, a identifié le cœur du problème : les équipes conformité ont besoin d’explicabilité et de garanties. Elles doivent comprendre comment l’IA parvient à ses conclusions et avoir confiance dans la fiabilité de ces résultats.

« Les équipes conformité considèrent l’IA comme inévitable et nécessaire, mais elles sont freinées par les risques de gouvernance, la qualité des données, l’incertitude réglementaire et le manque de compétences », souligne Krishna. Cela crée une demande pour des solutions d’entreprise capables de gérer la surveillance des transactions, le signalement des risques et l’évaluation des contrats avec la transparence requise pour la conformité.

Les outils d’IA génériques — accessibles gratuitement à tous — ne fournissent tout simplement pas ce niveau de garantie. Ce sont des boîtes noires, et les professionnels de la conformité ne peuvent pas se permettre d’avancer à l’aveugle.

Quand les systèmes ne communiquent pas entre eux

Près de la moitié des répondants à l’enquête (49 %) citent la mauvaise intégration avec les systèmes existants comme un problème majeur. Rien d’étonnant quand on voit comment la technologie conformité a évolué.

Les départements conformité fonctionnent généralement avec un assemblage d’outils spécialisés : gestion des dossiers, suivi réglementaire, dépôts documentaires, archives de communications, plateformes de reporting. Chaque système a souvent été acheté pour résoudre un problème précis, rarement en pensant à l’intégration.

Aujourd’hui, les organisations veulent superposer des fonctions IA sur cet environnement fragmenté. Les défis techniques sont majeurs. Formats de données différents, APIs incompatibles, systèmes anciens sur des infrastructures obsolètes — l’intégration à elle seule peut engloutir budgets et délais avant que les bénéfices de l’IA ne se concrétisent.

En parallèle, les employés censés utiliser ces outils d’IA vivent une expérience frustrante. Des workflows censés être fluides deviennent plus complexes. Des informations qui devraient circuler automatiquement nécessitent des interventions manuelles. Les gains d’efficacité promis se transforment en tickets IT et en solutions de contournement.

L’enquête révèle une tendance : les organisations déploient la technologie IA sans préparer suffisamment l’environnement dans lequel elle doit fonctionner. C’est comme acheter une voiture de sport sans jamais goudronner les routes.

Le fossé des compétences s’élargit

Près de 54 % des répondants identifient le manque d’expertise comme un frein à la mise en œuvre de l’IA. Et 47 % estiment que la formation aux outils d’IA reste un point sensible.

Ces chiffres reflètent une main-d’œuvre prise entre deux mondes. Les professionnels de la conformité ont bâti leur carrière sur la maîtrise des cadres réglementaires, des techniques d’enquête et des méthodologies d’évaluation des risques. Ces compétences restent essentielles — mais on attend désormais d’eux qu’ils ajoutent la maîtrise de l’IA à leur palette.

Le défi de la formation va bien au-delà de la simple prise en main des outils. Utiliser efficacement l’IA en conformité suppose de comprendre ce que la technologie peut ou ne peut pas faire, de savoir quand il faut vérifier les résultats, et de maîtriser l’art d’interroger les systèmes pour obtenir des réponses pertinentes. Il faut aussi développer un esprit critique sur les limites de l’IA et être conscient des biais potentiels dans les décisions algorithmiques.

La plupart des organisations n’ont pas suffisamment investi dans cette formation. La pression pour adopter l’IA s’est accompagnée de délais, pas de programmes de développement. Les employés doivent généralement se débrouiller seuls, avec parfois quelques tutoriels vidéo ou une formation express.

Résultat prévisible : adoption inégale, équipes frustrées et outils d’IA qui n’atteignent jamais leur potentiel faute de savoir-faire.

IA fantôme : le risque invisible

Quarante-deux pour cent des répondants à l’enquête ont signalé l’utilisation inconnue ou non maîtrisée de l’IA par les employés comme une préoccupation. Ce chiffre met en lumière un problème croissant d’IA fantôme, qui inquiète tout particulièrement les équipes conformité.

Quand les outils officiels d’IA sont difficiles à utiliser, mal intégrés ou nécessitent trop de validations, les employés trouvent des solutions de contournement. Ils collent des données sensibles dans des chatbots IA publics. Ils téléchargent des documents confidentiels pour obtenir des résumés rapides. Ils utilisent des comptes personnels pour des tâches professionnelles, car c’est plus rapide que de passer par les canaux officiels.

Chacun de ces raccourcis crée un risque. Des informations confidentielles se retrouvent sur des serveurs externes. Des données sensibles intègrent des jeux d’entraînement IA. Les contrôles de conformité sont contournés, souvent sans que les employés ne réalisent qu’ils posent problème.

L’ironie est cruelle : les organisations mettent en place l’IA pour améliorer la conformité, mais les difficultés de déploiement poussent les employés vers des usages de l’IA qui créent des violations de conformité. Sans gouvernance centralisée de l’IA et alternatives autorisées faciles à utiliser, l’IA fantôme continuera de se répandre.

Le vide des règles

Vingt-neuf pour cent des répondants pointent l’absence ou l’incohérence des règles liées à l’IA comme un problème. Vingt-sept pour cent citent l’incertitude réglementaire, et 25 % le manque de transparence ou d’explicabilité.

Pour les professionnels de la conformité, des règles claires ne sont pas une option — c’est la base de leur métier. Sans garde-fous définis pour l’usage de l’IA, les équipes conformité ne peuvent ni surveiller, ni appliquer, ni conseiller efficacement. Elles improvisent des réponses à des questions qui devraient avoir des solutions toutes faites.

Le paysage réglementaire n’aide guère. Les régulateurs fédéraux américains sont restés très discrets sur les cadres de gouvernance de l’IA. Quelques États — la Californie et le Colorado notamment — ont avancé sur la réglementation de l’IA, tandis que d’autres ont des projets en cours. Résultat : un patchwork d’exigences qui varient selon la juridiction, le secteur et le cas d’usage.

Les professionnels de la conformité doivent naviguer dans cette incertitude tout en mettant en place des outils d’IA qui ne seront peut-être pas alignés avec les exigences réglementaires futures. Ils construisent l’avion en plein vol, sans savoir où ils vont atterrir.

Pression descendante, difficultés sur le terrain

L’enquête révèle l’origine de la pression pour adopter l’IA : 48 % viennent de la direction et 15 % des conseils d’administration. Le message est clair : l’adoption de l’IA en conformité est principalement une initiative descendante.

Ce schéma explique bon nombre des difficultés identifiées dans l’enquête. Les dirigeants voient dans l’IA un levier d’efficacité et d’avantage concurrentiel. Ils prennent des décisions stratégiques pour adopter la technologie. Mais ils sont souvent déconnectés des réalités de la mise en œuvre auxquelles les équipes conformité sont confrontées au quotidien.

Sur le terrain, la réalité est différente. Les professionnels de la conformité doivent composer avec une infrastructure de données insuffisante, des problèmes d’intégration, des lacunes de formation et un déficit de confiance. Ils voient les risques liés à un déploiement précipité. Ils comprennent les incertitudes réglementaires que les dirigeants ne mesurent pas toujours.

Quand l’adoption est imposée d’en haut sans prise en compte des remontées du terrain, les organisations risquent d’aller trop vite sur l’IA et trop lentement sur la préparation nécessaire à son usage responsable. L’enquête montre que ce déséquilibre est courant.

La résistance n’est pas toujours irrationnelle

Près de 16 % des répondants signalent la résistance des employés aux outils d’IA comme un problème. On pourrait y voir de la technophobie ou une peur du changement. L’enquête suggère que c’est plus nuancé.

Regardez ce qu’on demande aux professionnels de la conformité : adopter des outils pour lesquels ils n’ont pas été formés, faire confiance à des résultats qu’ils ne peuvent pas vérifier, travailler avec des systèmes mal intégrés et sans règles claires — tout en maintenant la rigueur et la précision exigées par leur fonction.

Certaine résistance est une réaction rationnelle à des attentes déraisonnables. Quand les employés s’opposent à une technologie mal déployée, ils pointent parfois de vrais problèmes qu’il ne faut pas balayer d’un revers de main.

Les organisations qui considèrent la résistance comme un simple problème d’attitude risquent de passer à côté de retours précieux. Les équipes conformité ont souvent des préoccupations légitimes sur les outils d’IA que la direction devrait entendre.

Les conditions pour réussir l’implémentation de l’IA

Les résultats de l’enquête dessinent une voie à suivre, même si beaucoup d’organisations n’y sont pas encore.

La gouvernance des données doit être la priorité. Avant de déployer des outils d’IA, il faut évaluer honnêtement la qualité, l’accessibilité et l’intégration des données. Investir dans l’infrastructure de données est moins séduisant que lancer des pilotes IA, mais c’est indispensable pour réussir.

La formation exige un vrai engagement. Quelques tutoriels ne suffiront pas à créer des équipes conformité compétentes en IA. Les organisations doivent mettre en place des programmes de formation qui développent à la fois les compétences techniques et l’esprit critique sur les possibilités et limites de l’IA.

Des règles claires ne doivent pas attendre la perfection réglementaire. Les organisations doivent établir des cadres internes de gouvernance de l’IA, même si la réglementation externe reste incertaine. Ces règles doivent couvrir les usages autorisés, les exigences de gestion des données, les standards de vérification et les attentes envers les employés.

La planification de l’intégration mérite plus d’attention. Le déploiement de l’IA doit inclure des délais réalistes pour connecter les nouveaux outils aux systèmes existants. Précipiter la mise en œuvre sans résoudre l’intégration crée l’expérience fragmentée qui frustre les employés et freine l’adoption.

La confiance passe par la transparence. Les professionnels de la conformité doivent comprendre le fonctionnement des outils d’IA et disposer de moyens pour vérifier les résultats. Les solutions « boîtes noires » sont plus rapides à déployer, mais auront du mal à gagner la confiance nécessaire à une adoption durable.

L’avis des employés doit façonner la stratégie. Les injonctions descendantes fonctionnent mieux quand elles s’accompagnent de retours du terrain. Les équipes conformité ont une vision unique de leurs besoins, de leurs difficultés et des solutions qui pourraient marcher.

Les enjeux ne cessent de croître

L’enquête Compliance Week et konaAI capture un moment de tension qui risque de s’intensifier. Les fonctions de l’IA progressent rapidement. La pression concurrentielle pour les adopter ne faiblit pas. Les cadres réglementaires restent en construction.

Les organisations qui réussiront leur mise en œuvre de l’IA en tireront de vrais avantages. Elles auront des opérations conformité plus efficaces, plus rigoureuses et plus réactives face aux nouveaux risques. Elles attireront des talents désireux de travailler avec des outils modernes. Elles seront mieux préparées pour répondre aux futures exigences réglementaires.

Celles qui échoueront connaîtront un tout autre avenir. Elles peineront avec des déploiements qui ne tiennent pas leurs promesses. Elles feront face à des échecs de conformité dus à une mauvaise utilisation ou à une incompréhension des outils IA. Elles verront leurs concurrents prendre de l’avance pendant que leurs équipes resteront bloquées dans des environnements technologiques frustrants.

Le fossé entre les ambitions IA des dirigeants et la préparation des équipes conformité ne se comblera pas tout seul. Il faut construire le pont — et l’enquête montre que les professionnels de la conformité attendent toujours le début des travaux.

Sortir de l’impasse actuelle

Le principal enseignement de l’enquête est peut-être implicite : les équipes conformité ne sont pas anti-IA. Elles sont pro-préparation. Elles veulent des outils efficaces, des données fiables, une formation adaptée et des règles claires.

Répondre à ces besoins exige un engagement de toute l’organisation. Les départements IT doivent prioriser l’infrastructure de données conformité. Les budgets formation doivent s’élargir pour couvrir la maîtrise de l’IA. Les équipes juridiques et conformité doivent collaborer à l’élaboration des règles. Les sponsors de la direction doivent accepter que l’adoption responsable de l’IA prenne plus de temps que les cycles médiatiques de l’IA ne le laissent penser.

L’alternative — continuer à pousser l’adoption de l’IA sans s’attaquer aux problèmes de fond — garantit la persistance de ce que l’enquête documente déjà : déficit de confiance, difficultés de mise en œuvre et équipes conformité tiraillées entre des pressions contradictoires.

L’IA en conformité n’est plus une option. Mais la préparation nécessaire à son bon usage ne l’est pas non plus. Les organisations qui feront cette distinction trouveront des équipes conformité prêtes à exploiter le potentiel de l’IA. Les autres continueront de se demander pourquoi leurs investissements IA ne portent pas leurs fruits.

Pour découvrir comment Kiteworks peut vous accompagner, réservez votre démo sans attendre !

Foire aux questions

D’après une enquête Compliance Week et konaAI menée en 2026 auprès de près de 200 professionnels de la conformité, les principaux défis sont la qualité et l’accès aux données (66 %), le manque d’expertise (54 %) et la mauvaise intégration avec les systèmes existants (49 %). Les besoins en formation, l’utilisation inconnue de l’IA par les employés et l’incertitude réglementaire figurent aussi parmi les obstacles majeurs à l’adoption de l’IA dans les départements conformité.

Seuls 42 % des professionnels de la conformité font confiance aux résultats fournis par les outils d’IA, tandis que 48 % restent neutres. Ce déficit de confiance s’explique par le manque de transparence et d’explicabilité sur la façon dont les systèmes IA parviennent à leurs conclusions. Le travail de conformité exige précision et responsabilité, si bien que les professionnels hésitent à s’appuyer sur une technologie « boîte noire » incapable de démontrer comment elle aboutit à ses recommandations ou constats.

L’IA fantôme apparaît lorsque les employés utilisent des outils IA non autorisés parce que les solutions officielles sont difficiles d’accès ou mal intégrées. L’enquête révèle que 42 % des professionnels de la conformité s’inquiètent de l’utilisation inconnue ou non maîtrisée de l’IA dans leur organisation. Ces usages non autorisés exposent les données sensibles à des systèmes externes, contournent les contrôles de conformité et peuvent entraîner la présence d’informations confidentielles dans des jeux d’entraînement IA publics.

La direction impulse 48 % des initiatives d’adoption de l’IA, les conseils d’administration représentant 15 % supplémentaires. Cette pression descendante crée un décalage entre les objectifs stratégiques et la réalité opérationnelle. Les équipes conformité chargées de la mise en œuvre manquent souvent d’infrastructure de données, de formation et de règles claires pour déployer l’IA de façon responsable et efficace.

Les organisations ont besoin de cadres de gouvernance IA qui définissent les outils et usages autorisés, les exigences de gestion des données, les standards de vérification des résultats et les attentes envers les employés. L’enquête montre que 29 % des professionnels de la conformité rencontrent des difficultés liées à l’absence ou à l’incohérence des règles IA. Des lignes directrices internes claires permettent aux équipes conformité d’opérer efficacement, même si les cadres réglementaires externes restent incertains.

Les systèmes IA dépendent entièrement des données qu’ils consomment. Lorsque les équipes conformité travaillent avec des dossiers incomplets, des informations obsolètes, des formats incohérents ou des jeux de données cloisonnés, les outils IA produisent des résultats peu fiables. Dans la conformité — où la précision conditionne les résultats réglementaires —, une mauvaise qualité des données sape toute la valeur ajoutée de l’IA et oblige les équipes à tout vérifier manuellement.

Une formation efficace à l’IA va bien au-delà de la simple prise en main des outils. Les professionnels de la conformité doivent comprendre les possibilités et limites de l’IA, savoir quand les résultats nécessitent une vérification, apprendre à interroger efficacement les systèmes et développer une vigilance face aux biais algorithmiques potentiels. L’enquête montre que 47 % des répondants citent la formation comme un point sensible, ce qui suggère que la plupart des organisations n’ont pas investi dans les programmes de développement nécessaires à une adoption réussie de l’IA.

Ressources complémentaires

  • Article de blog Architecture Zero Trust : Ne jamais faire confiance, toujours vérifier
  • Vidéo Microsoft GCC High : Les inconvénients qui poussent les sous-traitants de la défense vers des solutions plus intelligentes
  • Article de blog Comment sécuriser les données classifiées après identification par DSPM
  • Article de blog Instaurer la confiance dans l’IA générative grâce à une approche Zero Trust
  • Vidéo Guide ultime pour sécuriser le stockage des données sensibles à destination des responsables IT

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks