La main-d’œuvre brésilienne de l’IA autodidacte : l’enthousiasme dépasse la gouvernance

Les agents publics brésiliens n’ont pas attendu qu’on leur donne l’autorisation. Ils n’ont pas attendu de programmes de formation. Ils n’ont pas attendu de licences d’entreprise ni d’accord du support informatique. Ils ont appris l’IA par eux-mêmes, ont commencé à l’utiliser au travail et — selon les données — ils obtiennent des résultats.

Le problème, c’est qu’ils font tout cela sans garde-fous.

Points clés à retenir

  1. Le Brésil possède la main-d’œuvre la plus autodidacte en IA au monde — et c’est bien là le problème. 67 % des agents publics brésiliens déclarent avoir acquis leurs connaissances en IA seuls ou en grande partie seuls — soit la part la plus élevée de l’indice. 52 % décrivent leur apprentissage comme entièrement autodidacte. Ce n’est pas une réussite de formation. C’est une main-d’œuvre qui a appris seule parce que personne n’a pris le relais — et qui utilise désormais l’IA sur des données gouvernementales sans cadre officiel, sans outils approuvés et sans traçabilité.
  2. Le Brésil se classe 5e au classement général mais dernier sur l’habilitation. Le Brésil a obtenu un score global de 49 sur 100 — le plaçant à la 5e place de l’indice, devant le Royaume-Uni, les États-Unis, l’Allemagne, le Japon et la France. Mais il n’a obtenu que 41/100 sur l’habilitation, le score le plus bas de tous les pays. Plus de 60 % déclarent que leur organisation ne leur fournit pas les outils ou ressources nécessaires pour utiliser l’IA efficacement. Plus d’un sur cinq n’a même aucun accès à des outils d’IA au travail.
  3. L’enthousiasme est au plus haut, mais les institutions ne suivent pas. 83 % des agents publics brésiliens jugent l’IA efficace. 89 % estiment qu’elle leur fait gagner du temps. 65 % sont optimistes quant à l’IA dans le secteur public. Mais 68 % estiment que les dirigeants ne donnent pas de directives claires sur l’utilisation de l’IA, et 49 % ne sauraient pas à qui s’adresser en cas de problème. L’écart entre l’enthousiasme et la préparation institutionnelle est le plus large de l’indice.
  4. 63 % ont commencé à utiliser l’IA au travail au cours de l’année écoulée — principalement de leur propre initiative. L’adoption de l’IA au Brésil est récente, rapide et presque entièrement initiée par les agents eux-mêmes. Contrairement aux pays les plus avancés où l’adoption est portée par la stratégie de l’État et un déploiement institutionnel, au Brésil, elle est issue de la base. Cela crée une dynamique puissante — mais aussi un risque majeur de gouvernance, car l’usage informel dépasse tous les garde-fous institutionnels. À mesure que les systèmes d’IA agentique gagnent en autonomie, ce risque de gouvernance s’aggrave.
  5. Près de 2 agents publics brésiliens sur 5 ne sont pas certains d’utiliser l’IA dans le respect de la politique interne. 39 % ne sont pas certains d’utiliser l’IA conformément aux règles de leur organisation. 1 sur 4 estime que son environnement de travail rend difficile l’utilisation de l’IA là où elle serait utile. Lorsque la responsabilité individuelle dépasse la gouvernance institutionnelle, le risque ne pèse plus sur l’organisation — il pèse sur l’agent public.

L’AI Adoption Index 2026 du secteur public, publié récemment par Public First pour le Center for Data Innovation avec le soutien de Google, a interrogé 3 335 agents publics dans 10 pays — dont 382 au Brésil. Le Brésil a obtenu un score de 49 sur 100, le plaçant à la 5e place de l’indice. Il devance ainsi le Royaume-Uni (47), les États-Unis (45), l’Allemagne (44), le Japon (43) et la France (42).

Sur le papier, c’est un bon résultat. Mais si l’on regarde les scores par dimension, un tout autre tableau se dessine — celui d’une main-d’œuvre qui a pris de l’avance sur les institutions censées la réguler.

Les chiffres qui révèlent le paradoxe brésilien

L’indice mesure l’expérience de l’IA par les agents publics selon cinq dimensions : enthousiasme, autonomisation, habilitation, intégration et formation. Pour le Brésil, les scores illustrent l’écart le plus marqué entre enthousiasme et infrastructure de toute l’étude :

  • Enthousiasme : 60/100 — le quatrième score le plus élevé de l’indice. 65 % des agents publics brésiliens se disent optimistes quant à l’IA. 83 % la jugent efficace. 89 % estiment qu’elle leur fait gagner du temps.
  • Formation : 54/100 — il existe quelques formations, mais près de la moitié des agents déclarent n’avoir reçu aucune formation formelle à l’IA. 67 % affirment que leurs connaissances en IA sont entièrement ou majoritairement autodidactes — la part la plus élevée de l’indice.
  • Autonomisation : 46/100 — 68 % estiment que les dirigeants ne communiquent pas clairement sur l’utilisation de l’IA. Près de 2 sur 5 ne sont pas certains d’utiliser l’IA conformément à la politique interne.
  • Habilitation : 41/100 — le score d’habilitation le plus bas de tous les pays de l’indice. Plus de 60 % déclarent que leur organisation ne leur fournit pas les outils ou ressources nécessaires pour utiliser l’IA efficacement. Plus d’un sur cinq n’a aucun accès à des outils d’IA au travail. Seuls 15 % estiment que leur organisation utilise les outils d’IA les plus adaptés à leur activité.
  • Intégration : 44/100 — intégration précoce ou inégale, l’utilisation de l’IA dépendant de l’initiative locale plutôt que d’un soutien systémique.

63 % des agents publics brésiliens ont commencé à utiliser l’IA au travail au cours de l’année écoulée. La plupart l’ont fait de leur propre initiative. Et 49 % déclarent qu’ils ne sauraient pas vers qui se tourner en cas de problème.

Cette main-d’œuvre a développé seule ses compétences en IA — et évolue désormais à grande échelle, sans réelle infrastructure institutionnelle pour la soutenir.

La crise de l’IA fantôme derrière l’enthousiasme

Voici le constat mondial de l’indice que les responsables de la sécurité du gouvernement brésilien ne peuvent pas ignorer.

Dans les environnements à faible habilitation de l’indice, 64 % des agents enthousiastes à l’égard de l’IA déclarent utiliser des identifiants personnels au travail, et 70 % utilisent l’IA pour des tâches professionnelles sans que leur responsable ne le sache.

Le Brésil affiche le score d’habilitation le plus bas de l’indice (41/100) et l’un des scores d’enthousiasme les plus élevés (60/100). C’est précisément cette combinaison qui engendre le risque d’IA fantôme le plus aigu de tous les pays étudiés.

Concrètement, cela signifie que des agents publics de l’administration fédérale, des États et des municipalités utilisent des comptes personnels ChatGPT, Gemini ou d’autres IA pour rédiger des documents, analyser des jeux de données, résumer des dossiers ou traiter des informations citoyennes. Des données sensibles — y compris des informations protégées par la loi générale sur la protection des données personnelles (LGPD) et les règles de l’ANPD sur les transferts de données à l’international — sont potentiellement injectées dans de grands modèles de langage publics, sans traçabilité, sans contrôle de classification des données et sans possibilité de déterminer ce qui a été exposé a posteriori.

Le risque s’accroît. À mesure que l’IA évolue au-delà des simples chatbots vers des systèmes agentiques — des IA autonomes capables de raisonner, d’agir et d’interagir avec les ressources de l’organisation — les conséquences d’un accès non gouverné se multiplient. Un agent IA mal configuré peut divulguer des milliers de données sensibles en quelques minutes, bien plus vite qu’un humain. Chaque agent déployé crée une identité non humaine nécessitant un accès API et une authentification machine à machine, que les systèmes classiques de gestion des identités ne sont pas conçus pour gérer. Au Brésil, où l’adoption dépasse déjà les contrôles institutionnels, l’arrivée de l’IA agentique transforme un simple déficit de gouvernance en une vulnérabilité structurelle urgente.

Et voici ce qui rend la situation brésilienne particulièrement risquée : l’utilisation d’outils d’IA publics peut transférer la responsabilité juridique de l’institution vers l’individu. Avec 39 % des agents publics déjà incertains de la conformité de leur utilisation de l’IA, et en l’absence de systèmes approuvés ou de directives claires, ce sont les agents eux-mêmes qui absorbent le risque de conformité qui devrait incomber à l’organisation.

C’est à ce moment que la réflexion doit passer de la célébration de l’enthousiasme à la sécurisation de l’usage. L’infrastructure nécessaire pour combler cet écart doit permettre la productivité avec des outils comme Claude, ChatGPT et Copilot, tout en gardant les données sensibles dans un réseau privé. Les cadres de gouvernance existants (RBAC/ABAC) doivent s’appliquer à toutes les interactions IA — y compris celles initiées par des agents autonomes — chaque opération IA doit être journalisée pour la conformité et la traçabilité, et les contenus sensibles ne doivent jamais quitter l’environnement de confiance. Le serveur MFT sécurisé de Kiteworks illustre cette approche, en maintenant les interactions IA dans les limites d’un Réseau de données privé où chaque opération est sécurisée via l’authentification OAuth 2.0 et régie par les règles organisationnelles existantes. Pour les organisations gouvernementales brésiliennes, l’alignement avec la LGPD et le cadre réglementaire de l’ANPD signifie que ces protections répondent directement aux obligations de conformité — y compris les exigences évolutives du PL 2338/2023.

L’alternative — laisser une main-d’œuvre autodidacte continuer à utiliser des outils d’IA publics avec des données gouvernementales sans supervision — n’est pas de l’enthousiasme. C’est un incident de protection des données en devenir.

L’écart intérêt-infrastructure : pourquoi la force du Brésil est aussi sa vulnérabilité

L’histoire du Brésil dans cet indice ne ressemble à celle d’aucun autre pays. Aux États-Unis et au Royaume-Uni, le défi est l’ambivalence — des agents publics qui ont accès à certains outils mais n’ont pas la confiance nécessaire pour les utiliser. En France et en Allemagne, le défi est l’inertie — des effectifs qui s’engagent à peine avec l’IA. Chez les adopteurs avancés — Singapour, Arabie saoudite, Inde — l’enthousiasme est à la hauteur de l’infrastructure institutionnelle.

Le Brésil occupe une catégorie à part : enthousiasme massif, compétences autodidactes profondes et quasi-absence de soutien institutionnel.

Les chiffres parlent d’eux-mêmes. Le Brésil dispose des bases numériques les plus solides d’Amérique latine — la plateforme gov.br, l’identité numérique généralisée et PIX ont créé une population connectée et un environnement riche en données. Au niveau national, le Plan national IA 2024–2028, aligné sur la présidence brésilienne du G20, met l’accent sur l’utilisation de l’IA pour améliorer les services publics. Au niveau local, des États comme Goiás, Paraná et Piauí innovent avec des lois et des bacs à sable réglementaires sur l’IA.

Mais ces investissements de haut niveau n’ont pas atteint le terrain. 61 % des agents publics brésiliens déclarent que leur organisation ne leur fournit pas ce dont ils ont besoin pour utiliser l’IA efficacement. Seuls 15 % estiment que leur organisation utilise les meilleurs outils d’IA pour leur activité. 49 % ne sauraient pas vers qui se tourner en cas de problème. L’accès se limite essentiellement aux outils publics disponibles, avec peu d’outils d’entreprise ou internes.

Le résultat : un secteur public où l’adoption de l’IA explose — mais sans aucun pilotage. Et en matière de protection des données, un enthousiasme non maîtrisé est plus dangereux que l’absence d’enthousiasme.

La couche manquante : gouvernance des données IA pour l’État brésilien

Le paysage réglementaire brésilien est déjà complexe — et il se complexifie encore. Être conforme à la LGPD, aux règles de l’ANPD sur les transferts de données à l’international et à la possible entrée en vigueur du PL 2338/2023 impose aux organisations publiques de naviguer entre plusieurs obligations. Quand l’IA est adoptée de façon informelle, sur des comptes personnels, sans gouvernance organisationnelle, ces obligations deviennent impossibles à respecter.

La plupart des organisations gouvernementales brésiliennes n’ont aucune visibilité sur les données partagées avec les systèmes d’IA. Quels agents publics utilisent l’IA, et pour quels usages ? Les sorties générées par l’IA contiennent-elles des données citoyennes sensibles ? Comment appliquer les politiques de classification des données quand des outils IA sont utilisés ? Pour la plupart, la réponse est qu’elles n’ont aucun moyen de le savoir — car l’usage de l’IA se fait totalement en dehors de leurs systèmes.

Ce déficit de visibilité devient encore plus critique à mesure que l’IA passe d’outils passifs à des agents actifs. Les systèmes d’IA agentique n’attendent pas d’instructions — ils exécutent des processus complexes, accèdent à des bases de données et interagissent avec des API externes en toute autonomie. Chaque agent crée une identité non humaine à sécuriser, et la plupart des systèmes de gestion des identités gouvernementaux ne sont pas conçus pour gérer cela à grande échelle. La sécurité au niveau des données, avec une gouvernance zéro trust, une autorisation contextuelle et une visibilité unifiée sur chaque interaction — qu’elle soit initiée par un humain ou un agent IA — n’est plus optionnelle.

C’est là que les cadres de gouvernance des données IA deviennent essentiels — non comme un frein à la dynamique brésilienne, mais comme l’infrastructure qui la rend durable et conforme. Les fonctions de gestion de la posture de sécurité des données (DSPM) peuvent détecter et classifier les données sensibles dans tous les référentiels, y compris celles injectées dans les systèmes IA. L’application automatique des règles peut bloquer l’ingestion de données sensibles ou confidentielles selon les labels de classification. Des journaux d’audit détaillés permettent de tracer toutes les interactions IA-données. Et, alignées sur la LGPD et le cadre réglementaire de l’ANPD, ces fonctions aident les organisations à maîtriser les risques IA tout au long du cycle de vie des données.

Les fonctions nécessaires pour combler cet écart sont claires : intégration du DSPM avec l’application automatique des règles et la journalisation d’audit immuable. Chaque interaction IA-données doit être tracée avec l’identifiant utilisateur, l’horodatage, les données consultées et le système IA utilisé. Le Réseau de données privé de Kiteworks propose cette approche, en réunissant ces fonctions sur une plateforme unique avec détection d’anomalies dopée à l’IA qui signale toute activité suspecte — comme un agent qui demanderait soudainement de gros volumes de données inhabituels. Pour le Brésil, où l’adoption individuelle a dépassé la préparation institutionnelle, ce type d’infrastructure ne freine pas la dynamique — il la protège.

Ce que les agents publics brésiliens demandent à leur gouvernement

Les données de l’indice révèlent une main-d’œuvre qui ne demande pas qu’on la freine. Elle demande du soutien.

49 % déclarent qu’ils ne sauraient pas vers qui se tourner en cas de problème avec l’IA. 61 % estiment que leur organisation ne leur fournit pas ce dont ils ont besoin. Près de 2 sur 5 ne sont pas certains d’utiliser l’IA dans le respect des règles. 1 sur 4 estime que son environnement de travail rend difficile l’utilisation de l’IA là où elle serait utile.

Les données mondiales sur ce qui favorise l’adoption de l’IA sont cohérentes dans tous les pays : des directives claires, des outils plus simples à utiliser et la garantie de la sécurité des données figurent en tête des leviers. Le budget dédié arrive loin derrière. Les agents publics brésiliens ont déjà prouvé qu’ils adopteraient l’IA sans budget, sans programme de formation et sans licence d’entreprise. Ce dont ils ont besoin aujourd’hui, c’est de l’infrastructure organisationnelle qui rende leur usage actuel sûr, conforme et efficace.

Pourquoi l’habilitation est la dimension décisive pour le Brésil

Le Brésil a obtenu 41/100 sur l’habilitation — le score le plus bas de l’indice. Et les données mondiales montrent pourquoi l’habilitation est si importante face au risque d’IA fantôme.

Dans les organisations à faible habilitation, 33 % des agents publics qui utilisent l’IA dans leur vie privée ne l’utilisent jamais au travail — preuve que les écarts d’accès empêchent les outils familiers de se traduire en productivité dans le secteur public. Mais au Brésil, la dynamique est inversée : les agents publics utilisent l’IA au travail malgré l’absence totale de soutien institutionnel, sur des outils personnels, avec des données gouvernementales. Ce n’est plus un simple déficit d’habilitation — c’est une urgence de gouvernance.

Dans tous les pays, 61 % des agents travaillant dans des environnements à forte intégration de l’IA constatent des bénéfices liés à l’usage avancé, contre seulement 17 % là où l’intégration est faible. Le score d’intégration du Brésil (44/100) traduit des progrès précoces, mais l’indice montre que l’intégration sans habilitation reste fragile — reposant sur l’initiative individuelle, qui peut s’arrêter ou générer des risques à tout moment.

Trois priorités pour sécuriser la dynamique brésilienne

L’indice met en avant trois actions qui pourraient transformer l’adoption spontanée de l’IA au Brésil en une transformation institutionnelle durable — à condition de les mener de front, et rapidement.

Premièrement, élargir l’accès à des outils d’IA fiables, sécurisés et à l’infrastructure de base. Le point faible du Brésil, c’est l’habilitation. Les agents publics s’appuient sur des outils personnels ou publics parce que leurs organisations n’offrent pas d’alternatives. Des politiques publiques qui élargissent l’accès à des outils d’IA approuvés, de niveau entreprise — accompagnés de l’infrastructure cloud et données nécessaire — permettraient de faire passer l’usage informel sous gouvernance. C’est d’autant plus crucial que les systèmes d’IA agentique font leur entrée dans les processus gouvernementaux, car les agents autonomes requièrent la même gouvernance zéro trust que les utilisateurs humains — avec, en plus, la nécessité d’une authentification machine à machine, d’une exécution en bac à sable et d’une détection d’anomalies en temps réel. Des plateformes comme le serveur MFT sécurisé de Kiteworks montrent comment y parvenir : permettre la productivité avec des outils comme Claude, ChatGPT et Copilot tout en gardant les données sensibles dans le réseau privé, avec traçabilité complète et conformité à la LGPD et au cadre de l’ANPD. Quand les outils approuvés sont aussi simples à utiliser que les comptes personnels — mais sécurisés, tracés et conformes — l’adoption ne ralentit pas. Elle devient plus sûre.

Deuxièmement, associer formation pratique, règles claires d’utilisation de l’IA et préparation aux incidents. Si la sensibilisation et l’optimisme sont élevés, la plupart des agents publics manquent de formation formelle ou de confiance dans le soutien à leur usage de l’IA. Des formations courtes, pratiques et adaptées à chaque rôle devraient être associées à des règles claires d’utilisation de l’IA, créant un cadre sécurisé pour les tâches quotidiennes. Des directives précises sur ce qui est autorisé, la gestion des données et les points de contact pour l’assistance aideraient à faire émerger l’usage informel. Et les organisations doivent prévoir des capacités de réponse aux incidents en parallèle. Sans journaux d’audit immuables, intégration SIEM et documentation de la chaîne de conservation, l’usage autodidacte de l’IA déjà en place dans l’administration brésilienne crée un risque de conformité impossible à quantifier au regard de la LGPD.

Troisièmement, créer des passerelles claires de l’expérimentation à l’échelle. L’adoption de l’IA au Brésil est portée par l’initiative individuelle, ce qui constitue une opportunité majeure. L’enthousiasme élevé et l’usage autodirigé laissent entrevoir un fort potentiel pour une culture d’apprentissage, d’expérimentation et de partage entre pairs. Pour libérer ce potentiel à grande échelle, les agents publics ont besoin de structures organisationnelles plus claires et d’un mandat explicite de l’État, via la législation et des bacs à sable réglementaires. À mesure que les outils IA évoluent vers des capacités agentiques, ces bacs à sable doivent intégrer des règles pour encadrer les systèmes d’IA autonomes — afin que les agents opèrent dans des limites définies avant un déploiement massif. Des États comme Goiás et Paraná montrent déjà la voie — généraliser ces modèles à l’échelle nationale offrirait à l’adoption spontanée brésilienne le socle institutionnel nécessaire à une transformation durable et systémique.

Des enjeux qui dépassent le classement

La 5e place du Brésil dans cet indice est impressionnante — mais ce chiffre masque une urgence. Chaque jour où des agents publics autodidactes utilisent des outils d’IA personnels avec des données gouvernementales, c’est un jour de plus d’exposition à la non-conformité à la LGPD. Chaque semaine sans outils d’entreprise approuvés, c’est une semaine de plus où les données citoyennes transitent par des systèmes que l’État ne peut ni voir, ni tracer, ni contrôler. Chaque mois sans gouvernance claire de l’IA, c’est un mois de plus où la responsabilité juridique qui devrait incomber aux institutions repose sur des agents publics qui cherchent simplement à mieux faire leur travail. Et à mesure que les agents IA deviennent plus autonomes et plus répandus, la surface d’attaque s’accroît d’autant.

Les agents publics brésiliens ont accompli quelque chose de remarquable : ils ont adopté l’IA plus vite et avec plus d’enthousiasme que leurs homologues américains, britanniques, allemands ou français — sans qu’on le leur demande, sans formation, sans outils dédiés. C’est la preuve de l’ingéniosité et de la détermination de la fonction publique brésilienne.

Mais l’ingéniosité sans infrastructure est un risque, pas une stratégie. Les 382 agents publics brésiliens interrogés dans cet indice ont déjà montré qu’ils adopteraient l’IA. La question est de savoir si leur gouvernement leur offrira les outils sécurisés, les règles claires et la gouvernance des données dont ils ont besoin — avant que l’enthousiasme ne se transforme en risque.

Foire aux questions

L’AI Adoption Index 2026 du secteur public est une étude mondiale menée par Public First pour le Center for Data Innovation, avec le soutien de Google. Elle a interrogé 3 335 agents publics dans 10 pays — dont 382 au Brésil — pour mesurer l’expérience de l’IA dans les administrations. L’indice évalue les pays selon cinq dimensions : enthousiasme, autonomisation, habilitation, intégration et formation, chacune sur une échelle de 0 à 100. Il va au-delà de la simple existence de stratégies IA gouvernementales, et examine si les agents disposent des outils, formations, autorisations et infrastructures nécessaires pour utiliser l’IA efficacement dans leur quotidien.

Le Brésil se classe 5e sur 10 pays avec un score global de 49 sur 100. Il obtient son meilleur score sur l’enthousiasme (60/100), reflet d’un optimisme généralisé et d’expériences positives avec l’IA, mais son plus faible score sur l’habilitation (41/100) — le score d’habilitation le plus bas de l’indice. Cela signifie que les agents publics brésiliens sont enthousiastes et motivés, mais manquent cruellement d’outils, de soutien et d’infrastructure organisationnels. Le Brésil devance le Royaume-Uni (47), les États-Unis (45), l’Allemagne (44), le Japon (43) et la France (42), mais reste derrière les adopteurs avancés comme l’Arabie saoudite (66), Singapour (58), l’Inde (58) et l’Afrique du Sud (55).

L’adoption de l’IA au Brésil est presque entièrement initiée par les agents eux-mêmes, et non par les institutions. 67 % des agents publics déclarent avoir acquis leurs connaissances en IA seuls ou en grande partie seuls. 63 % ont commencé à utiliser l’IA au travail au cours de l’année écoulée. Mais plus de 60 % estiment que leur organisation ne leur fournit pas les outils ou ressources nécessaires pour utiliser l’IA efficacement. Plus d’un sur cinq n’a aucun accès à des outils d’IA au travail, et seuls 15 % jugent que leur organisation utilise les outils d’IA les plus adaptés. Résultat : un secteur public où l’IA est adoptée avec enthousiasme par les individus, mais sans outils d’entreprise, sans gouvernance formelle ni soutien organisationnel — d’où l’écart le plus marqué de l’indice entre enthousiasme et infrastructure.

L’IA fantôme désigne l’utilisation par les agents publics d’outils d’IA non approuvés — souvent via des comptes personnels — pour des tâches professionnelles, sans que l’organisation en ait connaissance ou contrôle. L’indice révèle que dans les environnements à faible habilitation, 64 % des utilisateurs enthousiastes de l’IA s’appuient sur des identifiants personnels et 70 % utilisent l’IA sans que leur responsable ne le sache. Le Brésil affiche le score d’habilitation le plus bas (41/100) et l’un des scores d’enthousiasme les plus élevés (60/100) — la combinaison qui engendre le risque d’IA fantôme le plus aigu. À mesure que l’IA évolue vers des systèmes agentiques autonomes, ces risques s’aggravent : des agents non gouvernés peuvent provoquer des fuites de données bien plus rapidement qu’un utilisateur humain. Les données citoyennes sensibles, protégées par la LGPD et les règles de l’ANPD, peuvent être injectées dans des modèles IA publics sans traçabilité, sans contrôle de classification ni capacité d’analyse a posteriori. Par ailleurs, utiliser une IA publique sans système approuvé peut transférer la responsabilité juridique de l’institution vers l’agent public individuel.

Les organisations doivent passer d’un usage informel et autodirigé de l’IA à une adoption sécurisée et institutionnellement encadrée. Cela implique de déployer des outils d’IA d’entreprise approuvés, intégrant des contrôles de gouvernance des données — des plateformes qui gardent les données sensibles dans le réseau privé tout en permettant la productivité avec des assistants IA comme Claude, ChatGPT et Copilot. La gestion de la posture de sécurité des données (DSPM) doit classifier les données sensibles et appliquer les règles automatiquement. Des journaux d’audit immuables doivent tracer toutes les interactions IA-données. Et des capacités de réponse aux incidents doivent être en place avant tout passage à l’échelle. Avec l’arrivée de l’IA agentique, les organisations ont aussi besoin de contrôles zéro trust pour les identités non humaines, d’environnements d’exécution en bac à sable et de détection d’anomalies en temps réel pour les opérations à la vitesse machine. Des solutions comme le serveur MFT sécurisé de Kiteworks, alignées sur la LGPD et le cadre réglementaire de l’ANPD, montrent comment soutenir la dynamique IA déjà engagée tout en assurant la conformité et la protection des données citoyennes.

L’Arabie saoudite (66/100), Singapour (58/100) et l’Inde (58/100) sont les pays les mieux classés. L’exemple de l’Inde est le plus proche du Brésil — les deux pays affichent un fort enthousiasme et une adoption rapide. Mais l’Inde a associé cet enthousiasme à la stratégie gouvernementale « AI for All », à des formations gratuites hébergées par l’État et à une communication positive constante qui a créé un élan institutionnel en parallèle de l’initiative individuelle. Singapour et l’Arabie saoudite ont mis en place des plateformes centralisées, des outils approuvés et une gouvernance claire dès le départ. Le Brésil a l’opportunité de suivre cette voie : transformer son enthousiasme spontané en une adoption institutionnellement soutenue et sécurisée — avant que l’usage informel ne crée une exposition à la non-conformité qui viendrait compromettre les avancées déjà réalisées par les agents publics.

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks