La consulta sobre IA de Canadá utilizó IA para analizar 64,600 respuestas. Esto es lo que se perdió en la traducción.
En octubre de 2025, el Ministro de IA de Canadá, Evan Solomon, lanzó lo que el gobierno denominó una maratón nacional de 30 días, la mayor consulta pública en la historia de Innovación, Ciencia y Desarrollo Económico de Canadá (ISED). El objetivo era ambicioso: recopilar aportes del público y de expertos para definir la próxima estrategia nacional de IA de Canadá.
La consulta recogió 64,600 respuestas a 26 preguntas de la ciudadanía canadiense. Por separado, un grupo de trabajo de 28 expertos produjo 32 documentos e informes que cubrían desde comercialización e infraestructura hasta seguridad, confianza y competitividad global.
Luego, el gobierno hizo algo que debería hacer que cualquier profesional de gobernanza de datos preste atención: utilizó cuatro modelos de IA — Cohere Command A, OpenAI GPT-5 nano, Anthropic Claude Haiku y Google Gemini Flash — para leer, analizar y resumir los resultados.
El informe resultante de «lo que escuchamos», publicado discretamente a principios de febrero de 2026, condensa esas decenas de miles de voces en una narrativa gubernamental ordenada. Y como demostró el profesor de derecho de la Universidad de Ottawa, Michael Geist, en un análisis detallado, esa narrativa suaviza, desinfecta y reformula de manera sistemática las advertencias más contundentes de los expertos en un lenguaje de política equilibrado que suena razonable, pero oculta el consejo real.
No es solo una historia de política canadiense. Es una historia de gobernanza de datos de IA — y tiene implicaciones directas para cualquier organización que use IA para procesar, resumir o tomar decisiones basadas en contenido confidencial.
5 aprendizajes clave
- Canadá usó IA para resumir su propia consulta sobre la estrategia de IA — y los resultados merecen ser examinados. El gobierno canadiense utilizó cuatro modelos de IA distintos — Cohere Command A, OpenAI GPT-5 nano, Anthropic Claude Haiku y Google Gemini Flash — para analizar 64,600 respuestas públicas a 26 preguntas. Si bien la IA permitió al gobierno comprimir meses de análisis en semanas, el resumen resultante suavizó sistemáticamente las advertencias más urgentes de los expertos en un «lenguaje gubernamental» equilibrado. Cuando la IA resume aportes de políticas, quien define los prompts controla la narrativa.
- Los expertos dijeron que el problema real de Canadá en IA es la ejecución, no la investigación El grupo de trabajo de 28 expertos produjo 32 informes que enfatizaban repetidamente el mismo mensaje: el desafío de Canadá no es la falta de talento en investigación ni de excelencia académica. Es la incapacidad de comercializar, escalar e implementar IA a niveles competitivos globalmente. El resumen del gobierno presentó cada pilar de política como una prioridad igual, creando la ilusión de consenso equilibrado donde los expertos veían una emergencia de máxima prioridad.
- La velocidad se planteó como variable estratégica — pero el resumen del gobierno la ignoró. Los informes de los expertos presentan la velocidad como un arma competitiva: los países que avanzan más rápido lideran, mientras que los que dudan terminan regulando lo que otros ya construyeron. Algunos expertos señalaron directamente al propio gobierno — adquisiciones lentas, financiamiento demorado y cuellos de botella regulatorios — como parte del problema. Ninguna de esas autocríticas sobrevivió en el resumen oficial.
- La regulación de confianza y seguridad generó desacuerdos marcados que el resumen eliminó. La consulta pública hizo mucho hincapié en la seguridad de la IA, y el gobierno parece encaminarse hacia marcos de gobernanza, auditorías obligatorias y regulación basada en riesgos. Pero los informes de los expertos estaban lejos de ser unánimes. Algunos abogaban por avanzar rápido en la regulación, mientras que otros advertían que reglas demasiado amplias perjudicarían a las empresas canadienses y regularían tecnologías que Canadá no controla. El resumen del gobierno presentó la confianza como un consenso ya alcanzado, no como el campo de batalla político que realmente es.
- La mayor lección de gobernanza de datos no trata sobre la política de IA — trata sobre la política procesada por IA. Cuando un gobierno usa IA para resumir los resultados de su propia consulta, introduce los mismos riesgos de gobernanza de datos que enfrentan las empresas cada día: falta de transparencia sobre cómo los insumos se convierten en resultados, ausencia de registros auditables que muestren qué se filtró o enfatizó, y ninguna posibilidad para que los interesados verifiquen que su aporte fue representado fielmente. El proceso en sí es un caso de por qué la gobernanza de datos de IA es fundamental.
Lo que realmente dijeron los expertos vs. lo que publicó el gobierno
El gobierno tomó una decisión poco común: publicó los 32 informes de expertos junto con su propio resumen. Esa transparencia creó la oportunidad para que cualquier persona dispuesta a leer los documentos originales pudiera comparar lo presentado con lo reportado.
Geist hizo exactamente eso. Subió los 32 documentos tanto a ChatGPT como a Perplexity AI y generó sus propios resúmenes de los principales temas y áreas de desacuerdo. Las diferencias entre sus resúmenes generados por IA y el resumen generado por IA del gobierno son reveladoras.
Los informes de los expertos enmarcan de manera consistente el desafío de la IA en Canadá como un problema de ejecución, no de investigación. Ya sea sobre comercialización, adopción, infraestructura o escalamiento a operaciones competitivas a nivel global, los informes insisten en el mismo mensaje: Canadá tiene investigación de clase mundial pero no ha logrado avanzar más allá. El resumen del gobierno, en cambio, presenta cada pilar de política como una prioridad paralela con objetivos equilibrados. Todo importa por igual. Se reconocen pocos sacrificios. La urgencia que atraviesa los informes de expertos se suaviza metódicamente.
El mismo patrón se repite con la velocidad. Los informes de expertos la presentan como variable estratégica — los países que avanzan más rápido lideran, los que dudan quedan relegados a regular lo que otros ya construyeron. Varios informes señalan directamente al propio gobierno como parte del problema: ciclos de adquisiciones lentos, decisiones de financiamiento demoradas y procesos de aprobación regulatoria que avanzan a ritmo burocrático mientras los competidores corren. El resumen del gobierno no reconoce que el propio ritmo de Canadá puede estar socavando su competitividad, soberanía de datos y capacidad de influir en las normas globales de IA.
En cuanto al acceso a capital y las adquisiciones gubernamentales, la divergencia es aún mayor. Los informes de expertos describen la incapacidad de Canadá para escalar empresas de IA como una limitación estructural ligada a la ausencia de capital nacional — no como una preocupación menor, sino como un cuello de botella fundamental. Algunos expertos sostienen que la dependencia del país en subvenciones se ha vuelto contraproducente, protegiendo a las empresas de la disciplina del mercado sin generar clientes, ingresos ni escala. Las adquisiciones gubernamentales, sugieren varios informes, serían una palanca de política industrial mucho más efectiva — competir por negocios, no por subsidios. El resumen del gobierno menciona los desafíos de capital de forma indirecta, sin abordar las decisiones políticas involucradas.
Confías en que tu organización es segura. Pero ¿puedes comprobarlo?
Leer ahora
El debate sobre confianza y seguridad que desapareció
Quizá la divergencia más relevante entre los informes de expertos y el resumen del gobierno tiene que ver con la confianza y la seguridad.
La seguridad de la IA fue un tema dominante en las respuestas de la consulta pública, y el gobierno claramente se dirige a construir marcos de gobernanza, auditorías obligatorias, requisitos de transparencia y regulación basada en riesgos en su estrategia nacional de IA. El público, comprensiblemente, quiere límites claros.
Pero los informes de expertos son mucho menos unánimes sobre cómo construir esos límites. Casi todos coinciden en que la confianza es esencial para la adopción. Las diferencias surgen en la implementación. Algunos expertos abogan por avanzar rápido con regulación vinculante. Otros advierten que reglas demasiado amplias ralentizarán la implementación, pondrán a las empresas canadienses en desventaja competitiva e intentarán regular tecnologías que Canadá no controla ni ha desarrollado. El propio ministro Solomon ha descrito la filosofía regulatoria como «ligera, precisa y adecuada», reconociendo que la sobrerregulación puede ahuyentar empresas y capital hacia jurisdicciones más amigables.
Esos desacuerdos desaparecen casi por completo en el resumen del gobierno, donde la confianza se presenta como un objetivo de consenso ya alcanzado, en vez de lo que realmente es: un dominio de política disputado, con verdaderos sacrificios y posturas legítimas opuestas. Esto no es consenso. Es la apariencia de consenso, fabricada mediante una selección parcial en el resumen.
Desde la perspectiva de Kiteworks, el debate sobre confianza y seguridad pone en evidencia una brecha crítica que va mucho más allá de la política gubernamental. Cada organización que implementa IA enfrenta la misma tensión: ¿cómo habilitar la productividad impulsada por IA manteniendo los controles de gobernanza que protegen los datos confidenciales? La respuesta no es restringir el acceso a la IA — los datos de la consulta canadiense muestran que esa estrategia solo lleva a que el uso se traslade a la sombra. La respuesta es construir infraestructura segura que permita adoptar IA dentro de un marco gobernado. Eso significa implementar una red de contenido privado donde los datos confidenciales fluyen a través de herramientas de IA con visibilidad total, controles de acceso granulares y registros auditables integrales — para que las organizaciones puedan decir «sí» a la IA sin aceptar riesgos de IA fuera de control.
Cuando la IA resume la política de IA, ¿quién vigila al resumidor?
Hay un problema más profundo de gobernanza de datos de IA en esta historia que va más allá de los desacuerdos de política.
El gobierno canadiense usó IA para resumir insumos que definirán la política nacional de IA. Eso crea un problema de confianza recursiva: la herramienta que se gobierna es también la que realiza el análisis de gobernanza. Y el proceso plantea exactamente las mismas preguntas que enfrentan las empresas cuando implementan IA para procesar contenido confidencial:
- Transparencia: ¿Qué prompts se usaron para guiar el análisis de IA? ¿Se instruyó a los modelos para buscar consenso o para resaltar desacuerdos? ¿Se les pidió equilibrar perspectivas o representar fielmente la distribución de opiniones? El público no lo sabe.
- Auditabilidad: No hay un registro auditable publicado que muestre cómo los modelos de IA transformaron 64,600 respuestas en bruto en resúmenes temáticos. Nadie fuera del gobierno puede verificar si el resumen capturó fielmente los aportes o los filtró sistemáticamente.
- Reproducibilidad: Se usaron cuatro modelos de IA diferentes. ¿Se validaron entre sí los resultados? ¿Coincidieron? ¿Cómo se resolvieron los desacuerdos? El informe no lo dice.
- Responsabilidad: Cuando un resumen generado por IA suaviza las advertencias de los expertos en prosa burocrática, ¿quién es responsable? ¿El modelo? ¿El ingeniero de prompts? ¿La oficina del ministro? La cadena de custodia es opaca.
Estas no son preocupaciones hipotéticas. Son los mismos retos de gobernanza de datos que enfrenta cualquier empresa cuando la IA toca contenido confidencial. Y la experiencia del gobierno canadiense ilustra por qué las organizaciones necesitan infraestructura que brinde visibilidad sobre cómo la IA procesa los datos — no solo lo que entra, sino lo que sale y cómo se transformó en el camino.
Kiteworks cubre esta brecha mediante su enfoque de gobernanza de datos de IA. Al canalizar contenido confidencial a través de una red de contenido privado con capacidades de Data Security Posture Management (DSPM), las organizaciones pueden rastrear exactamente qué datos se comparten con sistemas de IA, aplicar políticas basadas en clasificación de datos que impiden que contenido privilegiado sea ingerido sin autorización y mantener registros auditables inmutables que capturan cada interacción entre IA y datos. El objetivo no es bloquear la IA. Es asegurar que, cuando la IA procese información confidencial, exista un registro completo y verificable de lo que ocurrió.
La lección más amplia para la gobernanza de IA en empresas
La historia de la consulta canadiense es un microcosmos del reto que enfrenta toda organización a medida que la adopción de IA se acelera.
El público y los expertos querían aportar de manera significativa a una decisión de política relevante. El gobierno realizó una consulta a gran escala y usó IA para analizar los resultados. El resumen generado por IA divergió de manera importante del material original. Y nadie fuera del proceso puede verificar si esa divergencia fue intencional, accidental o simplemente un resultado de cómo los modelos de lenguaje grandes comprimen la complejidad en coherencia.
Ahora traslada eso al contexto empresarial. Equipos legales usando IA para resumir negociaciones contractuales. Departamentos de finanzas usando IA para analizar documentos de due diligence. Recursos humanos usando IA para procesar retroalimentación de empleados. Equipos de cumplimiento usando IA para revisar presentaciones regulatorias. En todos los casos, aplican las mismas preguntas: ¿El resumen es fiel al origen? ¿Qué se filtró? ¿Puedes comprobarlo?
Las organizaciones que respondan bien a esas preguntas serán las que construyeron la infraestructura de gobernanza antes de necesitarla — no después de que un incidente las obligue. Eso implica consolidar las comunicaciones de contenido confidencial en una plataforma gobernada con registros auditables completos, aplicar principios de arquitectura de confianza cero a cada interacción entre IA y datos, y mantener la cadena de custodia verificable que reguladores, juntas directivas y socios exigen cada vez más.
Lo que Canadá hizo bien — y donde falló
En mérito al gobierno, publicó los informes completos de los expertos junto con el resumen. Esa transparencia es exactamente lo que promueven los defensores de la gobernanza de datos: muestra tus fuentes. La capacidad de Geist de comparar los insumos originales con los resultados procesados es posible solo porque los documentos fuente se hicieron públicos. Muchos gobiernos — y muchas empresas — no habrían dado ese paso.
Donde el proceso falló fue en la gobernanza del propio análisis de IA. No hay documentación metodológica que explique cómo se diseñaron los prompts, cómo se validaron o cruzaron los modelos de IA. No se reconocen las limitaciones inherentes al uso de IA para resumir aportes de política complejos y con múltiples perspectivas. No hubo verificación independiente de la precisión del resumen. Y no existe un marco claro de responsabilidad para la brecha entre lo presentado y lo reportado.
La ironía es evidente: una consulta diseñada para informar una estrategia nacional de IA fue socavada por una gobernanza de IA insuficiente. Los mismos riesgos que los expertos advirtieron — la necesidad de transparencia, registros auditables y responsabilidad en los sistemas de IA — quedaron expuestos en el proceso usado para resumir sus advertencias.
La conclusión
La consulta de IA de Canadá es una advertencia para toda organización que use IA para procesar, analizar o resumir información confidencial. La tecnología funciona. Puede comprimir meses de análisis en semanas. Pero sin infraestructura de gobernanza — transparencia sobre cómo los insumos se convierten en resultados, registros auditables que capturen lo que se filtró o enfatizó, y responsabilidad por la brecha entre los datos en bruto y las conclusiones procesadas — los resultados pueden alejarse silenciosamente de la realidad de maneras difíciles de detectar e imposibles de verificar después.
Los expertos que participaron en la consulta de Canadá se tomaron su mandato en serio y ofrecieron consejos directos y orientados a la acción. La pregunta no es si sus aportes fueron valiosos. Es si el resumen mediado por IA los reflejó fielmente — y si alguien puede probar que así fue.
Para Kiteworks, esto refuerza un principio que atraviesa todo lo que hacemos: cuando el contenido confidencial pasa por sistemas de IA, la visibilidad no es negociable. Eso significa registros auditables completos, aplicación automatizada de políticas de protección de datos de confianza cero y la capacidad de comprobar que lo que entra se representa fielmente en lo que sale. Gobiernos y empresas necesitan esta infraestructura — no porque la IA sea peligrosa, sino porque la IA sin gobernanza es una caja negra. Y en un mundo donde decisiones relevantes se basan cada vez más en resúmenes generados por IA, las cajas negras son un riesgo que ninguna organización puede permitirse.
Para descubrir cómo Kiteworks puede ayudarte, agenda una demo personalizada hoy.
Preguntas frecuentes
En octubre de 2025, el Ministro de IA de Canadá, Evan Solomon, lanzó una maratón nacional de 30 días para recopilar aportes sobre la próxima estrategia nacional de IA del país. La consulta recogió 64,600 respuestas públicas y 32 informes de expertos de un grupo de trabajo de 28 miembros. El gobierno usó cuatro modelos de IA para analizar y resumir los resultados. El proceso es relevante para la gobernanza de datos de IA porque demuestra lo que sucede cuando la IA se usa para procesar grandes volúmenes de información confidencial y relevante sin la transparencia, auditabilidad o verificación independiente adecuadas. Las divergencias entre los informes de expertos y el resumen generado por IA del gobierno ponen de manifiesto riesgos directamente relevantes para cualquier organización que use IA para procesar contenido confidencial.
El gobierno utilizó Cohere Command A, OpenAI GPT-5 nano, Anthropic Claude Haiku y Google Gemini Flash para revisar 64,600 aportes y detectar temas comunes. El análisis con IA comprimió lo que normalmente sería un proceso de meses en cuestión de semanas. Sin embargo, la metodología — incluyendo los prompts usados, cómo se validaron los resultados de los modelos y cómo se resolvieron los desacuerdos entre modelos — no fue publicada. Esta falta de transparencia hace imposible que el público verifique la precisión del resumen.
El profesor de derecho de la Universidad de Ottawa, Michael Geist, realizó una comparación detallada de los 32 informes de expertos frente al resumen del gobierno. Las principales diferencias incluyen el énfasis de los expertos en la ejecución por encima de la investigación como el verdadero reto de Canadá, la velocidad como variable estratégica con críticas directas a la lentitud gubernamental, la naturaleza estructural del problema de acceso a capital en Canadá y desacuerdos marcados sobre la regulación de confianza y seguridad que el resumen presentó como consenso. El resumen del gobierno suavizó sistemáticamente la urgencia en un lenguaje de política equilibrado.
Usar IA para resumir aportes de política introduce varios riesgos de gobernanza de datos: falta de transparencia sobre cómo los prompts influyen en los resultados, ausencia de registros auditables que muestren qué se filtró o enfatizó durante el resumen, imposibilidad para los interesados de verificar que su aporte fue representado fielmente y responsabilidad poco clara cuando los resúmenes generados por IA divergen del material original. Son los mismos riesgos que enfrentan las empresas cuando la IA procesa contenido confidencial de negocio — análisis de contratos, due diligence, presentaciones regulatorias y retroalimentación de empleados.
Kiteworks aborda la gobernanza de datos de IA mediante su enfoque de red de contenido privado. Las organizaciones pueden canalizar contenido confidencial a través de una plataforma gobernada que ofrece Data Security Posture Management (DSPM) para descubrir y clasificar datos confidenciales que fluyen hacia sistemas de IA, aplicación automatizada de políticas que bloquean la ingestión no autorizada de contenido privilegiado por parte de la IA, registros auditables inmutables que capturan cada interacción entre IA y datos (incluyendo ID de usuario, marca de tiempo, datos accedidos y sistema de IA utilizado) y principios de intercambio de datos de confianza cero que aplican controles de seguridad consistentes sin importar qué herramientas de IA se utilicen. Esta infraestructura permite a las organizaciones adoptar IA con confianza, manteniendo la visibilidad, responsabilidad y cumplimiento que reguladores y juntas exigen cada vez más.
Recursos adicionales
- Artículo del Blog Arquitectura Zero Trust: Nunca confíes, siempre verifica
- Video Microsoft GCC High: Desventajas que llevan a los contratistas de defensa a buscar ventajas más inteligentes
- Artículo del Blog Cómo proteger datos clasificados una vez que DSPM los identifica
- Artículo del Blog Cómo generar confianza en la IA generativa con un enfoque de confianza cero
- Video La guía definitiva para el almacenamiento seguro de datos sensibles para líderes de TI