L’IA a analysé 64 600 réponses lors de la consultation sur l’IA du Canada. Voici ce qui a été perdu dans la traduction.

En octobre 2025, le ministre canadien de l’IA, Evan Solomon, a lancé ce que le gouvernement a appelé un sprint national de 30 jours — la plus grande consultation publique de l’histoire d’Innovation, Sciences et Développement économique Canada (ISDE). L’objectif était ambitieux : recueillir les avis du public et des experts pour façonner la prochaine stratégie nationale de l’IA du Canada.

La consultation a recueilli 64 600 réponses à 26 questions de la part du public canadien. Un groupe de travail d’experts composé de 28 membres a produit 32 documents et rapports couvrant des sujets allant de la commercialisation et des infrastructures à la sécurité, la confiance et la compétitivité mondiale.

Puis, le gouvernement a pris une initiative qui devrait interpeller tous les professionnels de la gouvernance des données : il a utilisé quatre modèles d’IA — Cohere Command A, OpenAI GPT-5 nano, Anthropic Claude Haiku et Google Gemini Flash — pour lire, analyser et résumer les résultats.

Le rapport « ce que nous avons entendu », publié discrètement début février 2026, condense ces dizaines de milliers de voix en un récit gouvernemental bien ficelé. Comme l’a démontré Michael Geist, professeur de droit à l’Université d’Ottawa, dans une analyse détaillée, ce récit atténue, édulcore et reformule systématiquement les avertissements les plus marquants des experts dans un langage politique équilibré qui semble raisonnable, mais occulte les véritables recommandations.

Ce n’est pas seulement une histoire de politique canadienne. C’est un cas d’école en matière de gouvernance des données de l’IA — avec des implications directes pour toute organisation utilisant l’IA pour traiter, résumer ou prendre des décisions à partir de contenus sensibles.

5 points clés à retenir

  1. Le Canada a utilisé l’IA pour résumer sa propre consultation sur la stratégie IA — et les résultats méritent d’être examinés de près. Le gouvernement canadien a utilisé quatre modèles d’IA différents — Cohere Command A, OpenAI GPT-5 nano, Anthropic Claude Haiku et Google Gemini Flash — pour analyser 64 600 réponses publiques à 26 questions. Si l’IA a permis de condenser des mois d’analyse en quelques semaines, le résumé qui en résulte a systématiquement atténué les avertissements les plus urgents des experts dans un langage « administratif » équilibré. Quand l’IA résume des contributions politiques, celui qui définit les instructions contrôle le récit.
  2. Les experts ont pointé l’exécution, et non la recherche, comme le véritable problème de l’IA au Canada Le groupe de travail de 28 experts a produit 32 rapports qui insistent tous sur le même message : le défi du Canada ne réside pas dans le manque de talents en recherche ou d’excellence académique. C’est l’incapacité à commercialiser, à passer à l’échelle et à déployer l’IA à un niveau concurrentiel mondial. Le résumé du gouvernement a présenté chaque pilier politique comme une priorité équivalente, créant l’illusion d’un consensus équilibré alors que les experts tiraient la sonnette d’alarme.
  3. La rapidité a été présentée comme une variable stratégique — mais le résumé gouvernemental l’a ignorée. Les rapports d’experts présentent la rapidité comme une arme concurrentielle : les pays qui avancent vite prennent la tête, ceux qui hésitent se retrouvent à réglementer ce que d’autres ont déjà construit. Certains experts ont directement pointé du doigt le gouvernement — lenteur des achats publics, retards de financement, blocages réglementaires — comme partie du problème. Aucune de ces autocritiques n’a survécu dans le résumé officiel.
  4. La réglementation sur la confiance et la sécurité a suscité de vifs désaccords que le résumé a effacés. La consultation publique a fortement mis l’accent sur la sécurité de l’IA, et le gouvernement semble s’orienter vers des cadres de gouvernance, des audits obligatoires et une réglementation basée sur les risques. Mais les rapports d’experts étaient loin d’être unanimes. Certains préconisaient d’avancer rapidement sur la réglementation, d’autres mettaient en garde contre des règles trop larges qui désavantageraient les entreprises canadiennes et réglementeraient des technologies que le Canada ne contrôle pas. Le résumé gouvernemental a présenté la confiance comme un consensus acquis, alors qu’il s’agit en réalité d’un véritable champ de bataille politique.
  5. La plus grande leçon de gouvernance des données ne concerne pas la politique de l’IA — mais la politique traitée par l’IA. Lorsqu’un gouvernement utilise l’IA pour résumer les résultats d’une consultation, il introduit les mêmes risques de gouvernance des données que ceux auxquels les entreprises sont confrontées au quotidien : absence de transparence sur la transformation des données, aucune traçabilité sur ce qui a été filtré ou mis en avant, et impossibilité pour les parties prenantes de vérifier que leurs contributions ont été fidèlement représentées. Ce processus illustre parfaitement pourquoi la gouvernance des données de l’IA est cruciale.

Ce que les experts ont réellement dit vs. ce que le gouvernement a publié

Le gouvernement a fait un choix inhabituel : il a publié les 32 rapports d’experts en même temps que son propre résumé. Cette transparence a permis à toute personne motivée de comparer les documents sources à ce qui a été rapporté.

Geist l’a fait. Il a chargé les 32 documents dans ChatGPT et Perplexity AI, puis généré ses propres synthèses des grands thèmes et points de désaccord. Les écarts entre ses résumés générés par l’IA et celui du gouvernement sont révélateurs.

Les rapports d’experts présentent systématiquement le défi de l’IA au Canada comme un problème d’exécution, et non de recherche. Que le sujet soit la commercialisation, l’adoption, les infrastructures ou le passage à l’échelle mondiale, les rapports martèlent le même message : le Canada dispose d’une recherche de pointe, mais n’a pas su aller plus loin. Le résumé du gouvernement, à l’inverse, présente chaque pilier politique comme une priorité parallèle avec des objectifs équilibrés. Tout semble avoir la même importance. Peu de compromis sont évoqués. L’urgence qui traverse les rapports d’experts est méthodiquement gommée.

On retrouve le même schéma sur la question de la rapidité. Les rapports d’experts considèrent la rapidité comme une variable stratégique — les pays qui avancent vite prennent la tête, ceux qui hésitent se contentent de réglementer ce que d’autres ont bâti. Plusieurs rapports pointent directement le gouvernement comme partie du problème : cycles d’achats publics trop longs, décisions de financement tardives, processus d’approbation réglementaire à un rythme bureaucratique alors que les concurrents foncent. Le résumé du gouvernement ne reconnaît à aucun moment que le rythme canadien pourrait nuire à sa compétitivité, à sa souveraineté des données et à sa capacité à influencer les normes mondiales de l’IA.

Sur l’accès au capital et les achats publics, l’écart se creuse encore. Les rapports d’experts décrivent l’incapacité du Canada à faire grandir ses entreprises d’IA comme une contrainte structurelle liée à l’absence de capitaux nationaux — il ne s’agit pas d’un détail, mais d’un véritable goulot d’étranglement. Certains experts estiment que la dépendance du pays aux subventions est devenue contre-productive, protégeant les entreprises de la discipline du marché sans générer de clients, de revenus ni de croissance. Plusieurs rapports suggèrent que les achats publics seraient un levier de politique industrielle bien plus efficace — il faut gagner des marchés, pas des subventions. Le résumé du gouvernement évoque les difficultés d’accès au capital de manière indirecte, sans aborder les choix politiques sous-jacents.

Vous pensez que votre organisation est sécurisée. Mais pouvez-vous le prouver ?

Pour en savoir plus :

Le débat sur la confiance et la sécurité qui a disparu

L’écart le plus significatif entre les rapports d’experts et le résumé du gouvernement concerne la confiance et la sécurité.

La sécurité de l’IA a dominé les réponses à la consultation publique, et le gouvernement s’oriente clairement vers la mise en place de cadres de gouvernance, d’audits obligatoires, d’exigences de transparence et d’une réglementation basée sur les risques dans sa stratégie nationale. Le public, à juste titre, réclame des garde-fous.

Mais les rapports d’experts sont loin d’être unanimes sur la manière de mettre en place ces garde-fous. Presque tous s’accordent à dire que la confiance est essentielle à l’adoption. Les désaccords portent sur la mise en œuvre. Certains experts plaident pour une réglementation contraignante rapide. D’autres mettent en garde contre des règles trop larges qui freineraient le déploiement, désavantageraient les entreprises canadiennes et tenteraient de réglementer des technologies que le Canada ne contrôle pas et n’a pas développées. Le ministre Solomon lui-même a décrit la philosophie réglementaire comme « légère, stricte et adaptée », reconnaissant qu’une surréglementation peut pousser entreprises et capitaux vers des juridictions plus accueillantes.

Ces désaccords disparaissent largement dans le résumé du gouvernement, où la confiance est présentée comme un objectif de consensus alors qu’il s’agit en réalité d’un domaine politique disputé, avec de véritables compromis et des points de vue opposés légitimes. Ce n’est pas un consensus. C’est l’apparence d’un consensus, construite par une synthèse sélective.

Du point de vue de Kiteworks, ce débat sur la confiance et la sécurité met en lumière une faille critique qui dépasse largement la sphère politique. Toute organisation qui déploie l’IA se heurte à la même tension : comment tirer parti de la productivité de l’IA tout en maintenant les contrôles de gouvernance qui protègent les données sensibles ? La solution n’est pas de restreindre l’accès à l’IA — les données de la consultation canadienne montrent que cette approche ne fait que pousser les usages dans la clandestinité. Il faut construire une infrastructure sécurisée qui rende possible l’adoption de l’IA dans un cadre gouverné. Cela implique de déployer un réseau de données privé où les données sensibles transitent par les outils d’IA avec une visibilité totale, des contrôles d’accès granulaires et des journaux d’audit détaillés — pour permettre aux organisations de dire « oui » à l’IA sans accepter un risque incontrôlé.

Quand l’IA résume la politique de l’IA, qui surveille le résumeur ?

Un problème plus profond de gouvernance des données de l’IA se cache dans cette histoire, au-delà des désaccords politiques.

Le gouvernement canadien a utilisé l’IA pour résumer les contributions qui façonneront la politique nationale de l’IA. Cela crée un problème de confiance récursif : l’outil qui doit être gouverné est aussi celui qui réalise l’analyse de gouvernance. Et ce processus soulève exactement les mêmes questions que celles auxquelles les entreprises sont confrontées lorsqu’elles déploient l’IA pour traiter des contenus sensibles :

  • Transparence : Quelles instructions ont été utilisées pour guider l’analyse de l’IA ? Les modèles devaient-ils rechercher un consensus ou faire ressortir les désaccords ? Leur a-t-on demandé d’équilibrer les points de vue ou de représenter fidèlement la diversité des opinions ? Le public n’en sait rien.
  • Auditabilité : Aucun journal d’audit n’a été publié pour montrer comment les modèles d’IA ont transformé 64 600 réponses brutes en synthèses thématiques. Personne en dehors du gouvernement ne peut vérifier si la synthèse a fidèlement restitué les contributions ou si elle les a filtrées de façon systématique.
  • Reproductibilité : Quatre modèles d’IA différents ont été utilisés. Leurs résultats ont-ils été croisés ? Étaient-ils d’accord ? En cas de divergence, comment les conflits ont-ils été arbitrés ? Le rapport ne le précise pas.
  • Responsabilité : Quand une synthèse générée par l’IA atténue les alertes des experts dans un langage bureaucratique, qui est responsable ? Le modèle ? L’ingénieur prompt ? Le cabinet du ministre ? La chaîne de responsabilité reste opaque.

Ce ne sont pas des préoccupations théoriques. Ce sont les mêmes défis de gouvernance des données que toute entreprise rencontre dès lors que l’IA touche à des contenus sensibles. Et l’expérience du gouvernement canadien illustre parfaitement pourquoi les organisations ont besoin d’une infrastructure qui offre une visibilité sur la façon dont l’IA traite les données — pas seulement sur les données d’entrée, mais aussi sur les résultats et leur transformation.

Kiteworks comble cette lacune grâce à son approche de la gouvernance des données de l’IA. En faisant transiter les contenus sensibles par un réseau de données privé doté de fonctions de Data Security Posture Management (DSPM), les organisations peuvent tracer précisément quelles données sont partagées avec les systèmes d’IA, appliquer des règles de classification qui empêchent l’ingestion de contenus privilégiés sans autorisation, et conserver des journaux d’audit immuables retraçant chaque interaction IA-donnée. L’objectif n’est pas de bloquer l’IA, mais de garantir que, lorsqu’elle traite des informations sensibles, il existe un enregistrement complet et vérifiable de ce qui s’est passé.

La grande leçon pour la gouvernance de l’IA en entreprise

L’histoire de la consultation canadienne est un condensé du défi auquel chaque organisation est confrontée à mesure que l’adoption de l’IA s’accélère.

Le public et les experts voulaient tous deux contribuer de façon significative à une décision politique majeure. Le gouvernement a organisé une consultation d’envergure et utilisé l’IA pour analyser les résultats. La synthèse générée par l’IA s’est écartée de manière significative des documents sources. Et personne en dehors du processus ne peut vérifier si cet écart était intentionnel, accidentel ou simplement dû à la façon dont les grands modèles de langage simplifient la complexité.

Transposons cela au contexte d’une entreprise. Les équipes juridiques utilisent l’IA pour résumer des négociations contractuelles. Les départements financiers s’en servent pour analyser des documents de due diligence. Les RH traitent les retours des collaborateurs avec l’IA. Les équipes conformité s’appuient sur l’IA pour examiner les soumissions réglementaires. À chaque fois, les mêmes questions se posent : la synthèse reflète-t-elle fidèlement la source ? Qu’est-ce qui a été filtré ? Pouvez-vous le prouver ?

Les organisations capables d’apporter des réponses solides à ces questions sont celles qui auront bâti l’infrastructure de gouvernance en amont — pas après un incident. Cela implique de centraliser les communications de contenu sensible sur une plateforme gouvernée avec des journaux d’audit complets, d’appliquer les principes de l’architecture zéro trust à chaque interaction IA-donnée, et de maintenir une chaîne de traçabilité vérifiable, exigée par les régulateurs, les conseils d’administration et les partenaires.

Ce que le Canada a bien fait — et là où il a échoué

À mettre au crédit du gouvernement : il a publié l’intégralité des rapports d’experts en même temps que le résumé. Cette transparence correspond exactement à ce que défendent les experts en gouvernance des données : montrer ses sources. Si Geist a pu comparer les données brutes à la synthèse, c’est uniquement parce que les documents sources ont été rendus publics. Beaucoup de gouvernements — et d’entreprises — ne l’auraient pas fait.

Là où le processus a péché, c’est dans la gouvernance de l’analyse par l’IA elle-même. Aucune documentation méthodologique n’explique comment les modèles d’IA ont été instruits, validés ou croisés. Aucun aveu sur les limites inhérentes à l’utilisation de l’IA pour résumer des contributions politiques complexes et plurielles. Aucune vérification indépendante de la fidélité de la synthèse. Et aucun cadre de responsabilité clair pour l’écart entre ce qui a été soumis et ce qui a été rapporté.

L’ironie est frappante : une consultation destinée à éclairer une stratégie nationale sur l’IA a été elle-même fragilisée par une gouvernance de l’IA insuffisante. Les risques mêmes que les experts dénonçaient — besoin de transparence, de traçabilité et de responsabilité dans les systèmes d’IA — se sont manifestés dans le processus de synthèse de leurs alertes.

À retenir

La consultation canadienne sur l’IA est un avertissement pour toute organisation qui utilise l’IA pour traiter, analyser ou résumer des informations sensibles. La technologie fonctionne. Elle permet de condenser des mois d’analyse en quelques semaines. Mais sans infrastructure de gouvernance — transparence sur la transformation des données, journaux d’audit retraçant ce qui a été filtré ou mis en avant, et responsabilité pour l’écart entre les données brutes et les conclusions — les résultats peuvent s’écarter discrètement de la réalité, sans que personne ne s’en rende compte ni ne puisse le vérifier a posteriori.

Les experts ayant participé à la consultation canadienne ont pris leur mission au sérieux et formulé des recommandations franches et orientées vers l’action. La question n’est pas de savoir si leurs contributions étaient utiles, mais si la synthèse produite par l’IA les a fidèlement reflétées — et si quelqu’un peut le prouver.

Pour Kiteworks, cela confirme un principe qui guide toutes nos actions : dès lors que des contenus sensibles transitent par des systèmes d’IA, la visibilité est impérative. Cela signifie des journaux d’audit complets, l’application automatisée de politiques de protection des données zéro trust, et la capacité de vérifier que les données d’entrée sont fidèlement représentées dans les résultats. Gouvernements et entreprises ont besoin de cette infrastructure — non parce que l’IA est dangereuse, mais parce qu’une IA sans gouvernance est une boîte noire. Et dans un monde où les décisions majeures reposent de plus en plus sur des synthèses générées par l’IA, aucune organisation ne peut se permettre de prendre ce risque.

Pour découvrir comment Kiteworks peut vous accompagner, réservez votre démo sans attendre !

Foire aux questions

En octobre 2025, le ministre canadien de l’IA, Evan Solomon, a lancé un sprint national de 30 jours pour recueillir des avis sur la prochaine stratégie nationale de l’IA. La consultation a collecté 64 600 réponses du public et 32 rapports d’experts d’un groupe de travail de 28 membres. Le gouvernement a utilisé quatre modèles d’IA pour analyser et résumer les résultats. Ce processus est important pour la gouvernance des données de l’IA, car il montre ce qui se passe lorsque l’IA traite de grandes quantités de données sensibles et stratégiques sans transparence, auditabilité ou vérification indépendante suffisantes. Les écarts entre les rapports d’experts et le résumé généré par l’IA du gouvernement mettent en lumière des risques directement pertinents pour toute organisation utilisant l’IA sur des contenus sensibles.

Le gouvernement a utilisé Cohere Command A, OpenAI GPT-5 nano, Anthropic Claude Haiku et Google Gemini Flash pour analyser 64 600 contributions et identifier les thèmes récurrents. L’analyse par l’IA a permis de condenser un processus qui aurait pris plusieurs mois en quelques semaines. Cependant, la méthodologie — incluant les instructions utilisées, la façon dont les résultats des modèles ont été croisés et la résolution des désaccords — n’a pas été publiée. Ce manque de transparence empêche le public de vérifier la fidélité de la synthèse.

Michael Geist, professeur de droit à l’Université d’Ottawa, a comparé en détail les 32 rapports d’experts au résumé du gouvernement. Les principaux écarts portent sur l’accent mis par les experts sur l’exécution plutôt que la recherche comme véritable défi du Canada, la rapidité considérée comme un levier stratégique avec des critiques directes sur la lenteur gouvernementale, la nature structurelle du problème d’accès au capital au Canada, et de vifs désaccords sur la réglementation de la confiance et de la sécurité que le résumé a présentés comme un consensus. Le résumé du gouvernement a systématiquement atténué l’urgence dans un langage politique équilibré.

L’utilisation de l’IA pour résumer des contributions politiques introduit plusieurs risques de gouvernance des données : manque de transparence sur l’influence des instructions sur les résultats, absence de traçabilité sur ce qui a été filtré ou mis en avant lors de la synthèse, impossibilité pour les parties prenantes de vérifier la fidélité de la représentation de leurs contributions, et responsabilité floue lorsque les synthèses générées par l’IA divergent des sources. Ce sont les mêmes risques auxquels les entreprises sont confrontées lorsque l’IA traite des contenus sensibles — analyse de contrats, due diligence, soumissions réglementaires, retours collaborateurs.

Kiteworks répond à la gouvernance des données de l’IA grâce à son approche basée sur le réseau de données privé. Les organisations peuvent faire transiter les contenus sensibles par une plateforme gouvernée qui propose le Data Security Posture Management (DSPM) pour découvrir et classifier les données sensibles transférées vers les systèmes d’IA, l’application automatique de règles qui bloquent l’ingestion non autorisée de contenus privilégiés, des journaux d’audit immuables retraçant chaque interaction IA-donnée (identifiant utilisateur, horodatage, données consultées, système d’IA utilisé), et les principes du zéro trust pour appliquer des contrôles de sécurité cohérents quel que soit l’outil d’IA. Cette infrastructure permet aux organisations d’adopter l’IA en toute confiance tout en maintenant la visibilité, la responsabilité et la conformité exigées par les régulateurs et les conseils d’administration.

Ressources complémentaires

  • Article de blog Architecture Zero Trust : ne jamais faire confiance, toujours vérifier
  • Vidéo Microsoft GCC High : les inconvénients qui poussent les sous-traitants de la défense vers des solutions plus intelligentes
  • Article de blog Comment sécuriser les données classifiées après détection DSPM
  • Article de blog Instaurer la confiance dans l’IA générative grâce à une approche Zero Trust
  • Vidéo Guide pratique pour sécuriser le stockage des données sensibles à destination des responsables IT

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks