AI Safety Asia : diplomatie de crise et gouvernance de l’IA fondée sur les preuves au sommet Inde 2026

Un tournant s’est opéré lors du India AI Impact Summit 2026, et il n’est pas passé inaperçu. Le débat sur la gouvernance des systèmes d’IA avancés ne portait plus sur la nécessité d’une intervention des gouvernements, mais sur la manière d’y parvenir. Plus de théorie, plus de livres blancs : place à la pratique, avec des scénarios concrets, des enjeux réels et une véritable urgence.

Points clés à retenir

  1. AI Safety Asia a renforcé la diplomatie de crise pour les incidents d’IA à l’international. AI Safety Asia (AISA) a coorganisé une session sur la diplomatie de crise liée à l’IA lors de l’India AI Impact Summit 2026, réunissant des experts comme le professeur Stuart Russell et Audrey Tang pour analyser des scénarios plausibles de crise entre les pays. L’objectif : créer des canaux opérationnels entre évaluateurs techniques et décideurs diplomatiques afin de coordonner les réponses lorsque les incidents liés à l’IA dépassent la réactivité des structures de gouvernance traditionnelles.
  2. L’International AI Safety Report 2026 confronte les décideurs au dilemme de la preuve. Présidé par le lauréat du prix Turing Yoshua Bengio et lancé lors du sommet, l’International AI Safety Report 2026 propose une évaluation scientifique indépendante des risques liés à l’IA de pointe — usage malveillant, dysfonctionnements autonomes, perturbations systémiques. Le rapport met en lumière les progrès rapides des systèmes de raisonnement, tout en soulignant la persistance des défis de fiabilité, et conclut que la gestion des risques nécessite des défenses en couches, et non une seule mesure de protection.
  3. L’Asie développe sa propre capacité de gouvernance de l’IA, sans attendre les modèles occidentaux. Les travaux de l’AISA remettent en cause l’idée que les cadres de gouvernance seront conçus à Washington, Bruxelles ou Londres avant d’être adoptés ailleurs. En Asie et au Moyen-Orient, les décideurs bâtissent leur propre gouvernance de l’IA via des agences de régulation locales et des priorités régionales — une approche radicalement différente de l’AI Act européen ou du modèle nord-américain axé sur le marché.
  4. 90 % des organismes publics n’ont pas de gouvernance centralisée de l’IA. Selon le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité, 90 % des organismes publics ne disposent d’aucune passerelle centralisée pour les données d’IA, et un tiers n’a aucun contrôle dédié sur les données d’IA. Pourtant, ces structures gèrent des données citoyennes, des informations classifiées et des infrastructures critiques — avec des systèmes d’IA déployés sans gouvernance.
  5. Les tests conjoints entre pays posent les bases de la confiance nécessaire à la gestion de crise. Le sommet a souligné que les évaluations conjointes de la sécurité de l’IA entre pays ne servent pas seulement à mesurer la performance des modèles : elles instaurent la confiance et des relations de travail permettant aux régulateurs de coordonner leurs actions avant que les incidents ne dégénèrent. Cette tendance fait écho à celle de la cybersécurité : selon le WEF Global Cybersecurity Outlook 2026, 74 % des responsables sécurité estiment que les réglementations cyber sont utiles, mais la cohérence à l’international reste le principal défi.

AI Safety Asia (AISA), organisation basée à Hong Kong dédiée au renforcement des capacités de gouvernance régionale, a organisé deux sessions lors du sommet qui ont mis en lumière les difficultés de la gouvernance de l’IA en 2026 : la rapidité, la fragmentation et l’écart croissant entre les capacités des systèmes et les moyens des institutions pour les encadrer.

La première session portait sur la diplomatie de crise. La seconde a marqué le lancement officiel de l’International AI Safety Report 2026. Ensemble, elles dressent le tableau d’un monde qui ne débat plus de la nécessité d’encadrer l’IA, mais cherche activement qui doit fixer les règles, qui doit les faire respecter et comment réagir lorsqu’un incident touche simultanément trois pays.

Quand les crises de l’IA franchissent les frontières, qui décroche le téléphone ?

Le 17 février, au Bharat Mandapam de New Delhi, l’AISA a coorganisé une session intitulée « AI Crisis Diplomacy: Governing AI in a Fragmented World ». Parmi les partenaires figuraient le Center for Human-Compatible AI (CHAI) et l’International Association for Safe and Ethical Artificial Intelligence (IASEAI). Le panel réunissait des intervenants de premier plan : le professeur Stuart Russell, Audrey Tang, la Dr Yuko Harayama, Wan Sie Lee et Azizjon Azimi, sous la modération d’Alejandro Reyes, Chief Strategy Officer d’AISA.

Ce qui a rendu cette session unique, ce ne sont pas les titres des intervenants, mais les scénarios analysés. Pas de simples exercices de pensée abstraite, mais des crises plausibles qui mettent à l’épreuve les limites des cadres de gouvernance actuels. Imaginez un deepfake qui déstabilise des relations diplomatiques avant même que l’on puisse vérifier son authenticité. Ou une cyberattaque dopée à l’IA qui se propage à travers plusieurs juridictions plus vite que les gouvernements ne peuvent réagir. Ou encore un système d’infrastructure autonome hébergé dans un pays, exploité par un autre et impactant un troisième.

Le problème mis en lumière par ces scénarios n’est pas la détection. Les technologies de détection existent et progressent. Le vrai défi, c’est la coordination dans l’incertitude. Quand une crise évolue à la vitesse des machines, les institutions humaines, dépendantes de la délibération, des validations hiérarchiques et des protocoles bilatéraux, ne peuvent pas suivre. Aujourd’hui, il existe très peu de canaux opérationnels entre les évaluateurs techniques capables d’analyser la situation et les diplomates qui doivent décider des actions à mener.

Ce sujet dépasse la théorie. Le rapport Global Cybersecurity Outlook 2026 du World Economic Forum révèle que 94 % des sondés considèrent l’IA comme le principal moteur de transformation de la cybersécurité cette année. Parallèlement, 87 % identifient les vulnérabilités liées à l’IA comme le risque cyber qui progresse le plus rapidement. Il ne s’agit pas d’inquiétudes spéculatives, mais de la réalité vécue par les organisations qui déploient déjà ces systèmes.

Le mythe du « trop rapide pour être réglementé » s’effondre

L’un des arguments les plus répandus contre la gouvernance de l’IA est que la technologie évolue trop vite pour que la régulation suive. Les intervenants à New Delhi ont démonté cette idée avec un contre-argument solide : nous avons déjà relevé ce défi.

L’aviation n’évolue pas lentement. Ni l’énergie nucléaire, ni l’industrie pharmaceutique. Pourtant, ces secteurs sont encadrés par des cadres qui fixent des seuils de risque acceptables et exigent des preuves que les systèmes les respectent. La rapidité de l’innovation dans ces domaines n’a pas rendu la gouvernance obsolète, elle l’a rendue essentielle. Il doit en être de même pour l’IA.

En pratique, cela signifie que les gouvernements doivent cesser de se contenter de vagues assurances des développeurs d’IA et exiger des preuves tangibles de sécurité ainsi que des cadres de responsabilité crédibles. Le message du panel était clair : les clauses de non-responsabilité et les évaluations de risques opaques ne constituent pas une stratégie de gouvernance, mais une stratégie de limitation de responsabilité — de moins en moins efficace.

Les gouvernements savent déjà coopérer en situation de crise. La gestion de la pandémie l’a montré. La coordination cyber à l’international aussi. Le manque de gouvernance de l’IA ne tient pas à l’absence de structures diplomatiques, mais à l’absence de canaux opérationnels entre ceux qui comprennent le risque technique et ceux qui ont l’autorité d’agir.

Les tests conjoints, socle de la confiance

La session de l’AISA a mis en avant un point qui mérite d’être souligné : les efforts de test conjoints entre pays ne servent pas uniquement à mesurer la performance des modèles, mais à instaurer la confiance.

Quand des régulateurs de différents pays participent à des évaluations communes, ils développent une relation de travail. Ils apprennent à connaître la terminologie, les priorités et les contraintes de chacun. Cette compréhension partagée permet à un régulateur de décrocher le téléphone, de comparer les signaux et de vérifier les informations avec un homologue étranger — avant qu’un incident mineur ne dégénère en crise diplomatique.

Cela reflète une tendance plus large dans la gouvernance de la cybersécurité. Selon le WEF Global Cybersecurity Outlook 2026, 74 % des responsables sécurité dans le monde ont une opinion positive de l’efficacité des réglementations cyber. Mais il y a un bémol : dans les marchés où la réglementation est plus mature, comme l’Europe et l’Amérique du Nord, les répondants déclarent avoir plus de difficultés à appliquer ces règles de façon cohérente à l’international. Plus la réglementation est poussée, plus la complexité et la charge de conformité augmentent. Les cadres d’évaluation conjoints pourraient répondre directement à ce problème de gouvernance.

Le rapport prévisionnel 2026 de Kiteworks sur la sécurité des données et les risques de conformité apporte un autre éclairage. Il révèle que 90 % des organismes publics n’ont pas de gouvernance centralisée de l’IA, et qu’un tiers n’a aucun contrôle dédié sur les données d’IA. Pourtant, ces structures gèrent des données citoyennes, des informations classifiées et des infrastructures critiques. L’écart entre la rapidité de déploiement et la maturité de la gouvernance ne cesse de se creuser.

Le dilemme de la preuve : agir maintenant ou attendre des certitudes ?

Le lendemain, 18 février, l’AISA a coorganisé le lancement de l’International AI Safety Report 2026 au Haut-Commissariat du Canada en Inde. L’événement était organisé en partenariat avec le Haut-Commissariat, l’UK AI Security Institute et Mila, l’Institut québécois d’intelligence artificielle.

Le rapport est présidé par le professeur Yoshua Bengio, lauréat du prix Turing et fondateur de Mila, avec Carina Prunkl et Stephen Clare comme co-responsables. Il propose une évaluation scientifique indépendante des fonctions et risques liés à l’IA de pointe, couvrant l’usage malveillant, les dysfonctionnements autonomes et les perturbations systémiques.

La principale tension abordée par le rapport est ce que l’on pourrait appeler le dilemme de la preuve. Les décideurs doivent prendre des décisions majeures sur la sécurité de l’IA dans un contexte d’incertitude réelle. Les données sont incomplètes, les modèles de risque imparfaits, et la technologie évolue plus vite que la science qui l’évalue.

Mais l’alternative à l’action dans l’incertitude, c’est d’attendre des preuves parfaites. Et attendre, c’est s’exposer. Le rapport met en lumière les avancées rapides des systèmes de raisonnement et des agents d’IA, tout en soulignant la persistance des défis de fiabilité et la montée des risques cyber et biologiques. Le constat est clair : la gestion des risques ne peut reposer sur une seule mesure. Il faut des couches de défense — mesures techniques, supervision institutionnelle et résilience sociétale — qui agissent ensemble.

L’Asie ne compte pas attendre des modèles venus d’ailleurs

Le point le plus marquant des deux sessions reste sans doute le rôle de l’Asie et du Sud global dans la structuration des cadres de gouvernance de l’IA. Beaucoup partent du principe que ces modèles seront conçus à Washington, Bruxelles ou Londres, puis adoptés ailleurs. L’action de l’AISA remet directement en cause cette vision.

En Asie, décideurs, régulateurs et experts techniques développent leur propre capacité de gouvernance, adaptée aux réalités institutionnelles locales et aux priorités régionales. Le Moyen-Orient, par exemple, construit sa gouvernance de l’IA sous la supervision de la SDAIA et via une implication réglementaire active — une approche radicalement différente de l’AI Act européen ou du modèle nord-américain axé sur le marché.

La mission de l’AISA est de veiller à ce que l’expertise régionale éclaire à la fois les décisions nationales et les débats internationaux. C’est essentiel, car la gouvernance de l’IA n’est pas universelle. Un cadre conçu pour l’infrastructure réglementaire de l’Union européenne ne s’applique pas tel quel à l’Asie du Sud-Est ou aux pays du Golfe. Une gouvernance efficace doit s’ancrer localement tout en contribuant à l’élaboration de normes mondiales.

Ce que cela implique pour les organisations qui déploient l’IA

Pour les entreprises et institutions opérant en Asie ou depuis l’Asie, le message de l’India AI Impact Summit est limpide. Attendez-vous à de nouvelles exigences sur la documentation des modèles, les exercices de red teaming et le partage international d’informations. L’époque où la gouvernance de l’IA était une préoccupation future est révolue.

Les organisations doivent commencer à aligner leurs registres internes de risques liés à l’IA et leurs processus d’évaluation d’impact sur la protection des données avec les standards régionaux émergents. Cela implique d’aller au-delà des simples listes de conformité et de mettre en place une véritable infrastructure de gouvernance : supervision centralisée de l’IA, contrôles liés à la finalité, protocoles de gestion des incidents capables de fonctionner à l’échelle internationale.

Le rapport du WEF indique que la part des organisations évaluant la sécurité des outils d’IA avant leur déploiement est passée de 37 % en 2025 à 64 % en 2026. Cette tendance va s’accélérer. Les organisations qui attendent la finalisation des réglementations avant d’agir risquent de devoir rattraper leur retard dans un environnement où les règles évoluent plus vite que la capacité d’adaptation des équipes conformité.

La gouvernance de l’IA n’est plus un débat philosophique

La gouvernance de l’IA n’est plus une question de philosophie. C’est un défi opérationnel. L’India AI Impact Summit 2026 a montré que la discussion porte désormais sur la mise en œuvre : qui vérifie les garanties de sécurité ? Qui coordonne lorsqu’un incident franchit les frontières ? Qui est responsable lorsqu’un système autonome cause un préjudice et qu’aucun ministère n’en a la charge ?

La prochaine crise liée à l’IA n’attendra pas le calendrier diplomatique. Elle évoluera à la vitesse des machines. La capacité de la diplomatie et des infrastructures de sécurité à suivre dépend entièrement des institutions, des relations et des canaux de vérification mis en place dès aujourd’hui. Pas après coup.

Le travail de l’AISA lors du sommet constitue une avancée concrète vers la construction de cette infrastructure, en partant de la base — fondée sur les preuves, ancrée dans les réalités régionales et pensée pour un monde où la technologie va désormais plus vite que la gouvernance traditionnelle.

Foire aux questions

Lors de l’India AI Impact Summit 2026, AI Safety Asia (AISA) a animé deux sessions majeures sur la gouvernance de l’IA fondée sur les preuves et la diplomatie de crise. Le sommet a permis d’avancer sur la coordination des incidents à l’international, les tests conjoints de sécurité entre pays et la mise en place de cadres régionaux d’évaluation des modèles. Ces sessions montrent que l’Asie construit activement sa propre capacité de gouvernance au lieu d’attendre des modèles réglementaires conçus en Occident.

La diplomatie de crise liée à l’IA désigne les mécanismes de coordination nécessaires aux gouvernements lorsque des incidents liés à l’IA franchissent les frontières à la vitesse des machines. C’est crucial, car un deepfake déstabilisant des relations diplomatiques ou une cyberattaque dopée à l’IA qui se propage à travers plusieurs juridictions exigent une coordination en temps réel entre évaluateurs techniques et décideurs diplomatiques. Les structures de gouvernance actuelles ne disposent pas de canaux opérationnels pour réagir aussi rapidement.

Les organisations qui déploient l’IA en Asie ou depuis l’Asie doivent anticiper de nouvelles exigences concernant la documentation des modèles, les exercices de red teaming et le partage international d’informations. Le sommet a montré que les standards régionaux de gouvernance se mettent en place rapidement. Les entreprises doivent aligner leurs registres internes de risques liés à l’IA et leurs évaluations d’impact sur la protection des données avec les cadres attendus, mettre en place une supervision centralisée de l’IA et établir dès maintenant des protocoles de gestion des incidents à l’international.

L’approche asiatique de la gouvernance de l’IA s’appuie sur les réalités institutionnelles régionales, et non sur des modèles importés d’autres juridictions. L’Europe privilégie une régulation descendante via son AI Act, tandis que l’Amérique du Nord mise davantage sur des cadres volontaires et pilotés par le marché. Les pays d’Asie et du Moyen-Orient développent des modèles hybrides intégrant des agences locales comme la SDAIA, en mettant l’accent sur le renforcement des capacités pratiques et la coopération internationale adaptée aux priorités régionales.

L’International AI Safety Report 2026, présidé par Yoshua Bengio et lancé lors du sommet, propose une évaluation scientifique indépendante des risques liés à l’IA de pointe. Le rapport met en lumière les progrès rapides des systèmes de raisonnement et des agents d’IA, tout en soulignant la persistance des défis de fiabilité et la montée des risques cyber et biologiques. Il insiste sur le fait qu’une gestion efficace des risques nécessite des défenses en couches — techniques, institutionnelles et sociétales — et non un contrôle unique.

La maturité de la gouvernance de l’IA reste très inégale à l’approche de 2026. Le WEF Global Cybersecurity Outlook 2026 indique que 87 % des répondants identifient les vulnérabilités liées à l’IA comme le risque à la croissance la plus rapide, mais seuls 64 % évaluent la sécurité des outils d’IA avant leur déploiement. Le rapport Kiteworks 2026 révèle que 90 % des organismes publics n’ont pas de gouvernance centralisée de l’IA. Ces chiffres illustrent l’écart croissant entre la rapidité de déploiement de l’IA et la maturité de la gouvernance dans tous les secteurs.

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks