Comment réaliser une analyse d’impact relative à la protection des données pour les systèmes basés sur l’IA

Une Analyse d’Impact relative à la Protection des Données (AIPD) est obligatoire avant de déployer tout système d’IA présentant un risque élevé pour les droits et libertés des personnes. La plupart des déploiements d’IA en entreprise sont concernés. La majorité des organisations ne réalisent pas d’AIPD — et celles qui le font se contentent souvent d’un processus purement formel, sans produire de conclusions exploitables.

Les modèles standards d’AIPD ont été conçus pour des systèmes de traitement de données classiques. Les systèmes d’IA présentent un profil de risque qualitativement différent — prise de décision autonome, mémorisation des données d’entraînement, dérive du modèle, et résultats opaques — que les cadres standards ne prennent pas en compte de façon adéquate. Une AIPD menée à l’aide d’une simple liste de contrôle générique passera à côté des risques les plus importants.

Ce guide explique dans quels cas une AIPD est requise pour l’IA, comment le RGPD, HIPAA, l’AI Act européen et le NIST AI RMF abordent l’évaluation des risques liés à l’IA, et comment mener une AIPD qui débouche sur des conclusions solides et un plan de remédiation concret.

Résumé Exécutif

Idée principale : Réaliser une AIPD pour un système d’IA ne se limite pas à remplir une liste de contrôle sur la vie privée — il faut évaluer de façon systématique les risques propres à l’IA, dont la prise de décision automatisée, l’exposition des données d’entraînement, l’opacité du modèle, et l’efficacité des contrôles techniques au niveau des données avant tout déploiement.

Pourquoi c’est important : L’article 35 du RGPD rend l’AIPD obligatoire avant tout traitement d’IA à haut risque. L’AI Act européen introduit des obligations parallèles d’évaluation de conformité. HIPAA impose une analyse des risques de sécurité pour tout système traitant des informations médicales protégées (PHI). Déployer une IA sans ces évaluations constitue une infraction réglementaire — et prive votre gouvernance IA de visibilité sur les risques les plus susceptibles de causer des dommages.

Résumé des points clés

  1. L’AIPD est obligatoire selon l’article 35 du RGPD avant de déployer des systèmes d’IA impliquant un profilage systématique, une prise de décision automatisée ou un traitement à grande échelle de données sensibles — la plupart des déploiements d’IA en entreprise remplissent au moins un de ces critères.
  2. Les modèles standards d’AIPD sous-estiment les risques propres à l’IA — opacité du modèle, mémorisation des données d’entraînement, biais décisionnels automatisés et obligations d’effacement nécessitent des étapes d’évaluation dédiées, au-delà des listes de contrôle classiques.
  3. Le RGPD, HIPAA, l’AI Act européen et le NIST AI RMF imposent des obligations d’évaluation des risques qui se recoupent — une AIPD structurée pour l’IA peut répondre à plusieurs cadres simultanément.
  4. Une AIPD n’a de valeur que par ses conclusions — elle doit aboutir à un plan de remédiation avec des contrôles techniques précis, et non à un simple registre de risques archivé dans un dossier de conformité.
  5. Les contrôles techniques identifiés dans une AIPD doivent être appliqués au niveau des données — contrôles d’accès, chiffrement validé, journaux d’audit infalsifiables — pour être défendables lors d’un audit, et non au niveau du modèle où ils pourraient être contournés.

Quand une AIPD est-elle requise pour les systèmes d’IA ?

L’obligation de réaliser une AIPD n’est pas facultative pour la plupart des déploiements d’IA en entreprise. Selon l’article 35 du RGPD, l’AIPD est obligatoire lorsque le traitement est « susceptible d’engendrer un risque élevé » pour les droits et libertés des personnes physiques. Le règlement identifie trois catégories qui déclenchent automatiquement cette obligation — et les trois sont courantes dans l’IA d’entreprise :

  • Profilage systématique et approfondi ou prise de décision automatisée produisant des effets juridiques ou similaires sur les individus — notation de crédit, sélection RH, tarification d’assurance, détection de fraude, et triage clinique par IA sont concernés.
  • Traitement à grande échelle de données de catégories particulières — données de santé, biométriques, financières, casiers judiciaires, ou révélant l’origine raciale ou ethnique. Tout système d’IA traitant des informations médicales protégées (PHI), CUI ou données personnelles sensibles à l’échelle de l’entreprise entre dans ce champ.
  • Surveillance systématique de zones accessibles au public — y compris la surveillance par IA et les systèmes d’analyse comportementale.

Les autorités de contrôle européennes publient des listes de types de traitements nécessitant une AIPD dans leur juridiction — et les traitements pilotés par l’IA figurent sur quasiment toutes ces listes. Si votre organisation hésite sur la nécessité d’une AIPD, la réponse est presque toujours oui.

Au-delà du RGPD, d’autres cadres imposent des obligations similaires :

  • HIPAA impose une analyse des risques de sécurité avant de déployer tout système créant, recevant, stockant ou transmettant des informations médicales protégées électroniques — y compris les systèmes d’IA traitant des données de patients. L’analyse HIPAA diffère d’une AIPD RGPD, mais une AIPD IA bien structurée peut satisfaire les deux exigences si elle est correctement cadrée.
  • L’AI Act européen impose une évaluation de conformité pour les systèmes d’IA à haut risque avant leur mise sur le marché — couvrant l’IA utilisée dans la santé, l’éducation, l’emploi, les infrastructures critiques, les forces de l’ordre et les services financiers. Ces systèmes doivent répondre à des exigences de gouvernance des données, de transparence, de supervision humaine et de précision, qui recoupent directement les conclusions d’une AIPD.
  • Le NIST AI RMF propose un cadre volontaire pour la gestion des risques liés à l’IA aux États-Unis, structuré autour de quatre fonctions — Cartographier, Mesurer, Gérer et Gouverner — qui correspondent étroitement au processus d’AIPD et sont de plus en plus référencées dans les marchés publics fédéraux et les guides sectoriels.
Tableau 1 : Obligations d’évaluation des risques IA selon les cadres
Cadre Obligation Déclencheur Livrable clé requis
Article 35 RGPD AIPD obligatoire avant déploiement Traitement à haut risque : profilage, décisions automatisées, données sensibles à grande échelle Description des risques, évaluation de la nécessité, mesures techniques, détermination du risque résiduel
HIPAA Security Rule Analyse des risques de sécurité requise Toute création, réception, gestion ou transmission d’ePHI Identification des menaces/vulnérabilités, cotation des risques, plan de gestion des risques
AI Act européen Évaluation de conformité avant déploiement Catégories de systèmes d’IA à haut risque (santé, emploi, crédit, forces de l’ordre) Documentation technique, mesures de gouvernance des données, mécanismes de supervision humaine
NIST AI RMF Volontaire ; de plus en plus requis dans les marchés publics fédéraux Toute mise en œuvre de système d’IA Profil de risque IA couvrant : validité, fiabilité, sécurité, sûreté, explicabilité, équité, respect de la vie privée, responsabilité

Pourquoi les modèles standards d’AIPD sont insuffisants pour l’IA

La plupart des modèles d’AIPD ont été conçus pour des traitements de données classiques — bases de données, applications web, CRM — où la relation entre données d’entrée, opérations de traitement et résultats est déterministe et vérifiable. Les systèmes d’IA remettent en cause plusieurs de ces postulats, ce qui explique pourquoi une AIPD menée à l’aide d’une liste de contrôle générique passe souvent à côté des risques majeurs.

Opacité du modèle. Les AIPD standards évaluent quelles données sont traitées et comment. Les systèmes d’IA traitent les données via des mécanismes que même leurs concepteurs ne comprennent pas toujours. Une AIPD pour l’IA doit évaluer non seulement les données d’entrée du modèle, mais aussi ce que le modèle en fait et si les résultats peuvent révéler des informations personnelles non destinées à être divulguées.

Exposition des données d’entraînement. Les modèles d’IA peuvent mémoriser des entrées et restituer mot à mot des passages issus des données d’entraînement en réponse à des requêtes ciblées. Une AIPD doit évaluer si les données d’entraînement contiennent des informations personnelles extraites du modèle après déploiement, et quels contrôles techniques empêchent cette extraction.

Risque lié à la décision automatisée. Les AIPD standards se contentent de demander si des décisions automatisées sont prises. Les AIPD IA doivent aller plus loin : quel est le taux d’erreur du modèle et sa répartition selon les groupes démographiques ? Existe-t-il des preuves d’impact différencié ? Le mécanisme de supervision humaine est-il réellement effectif ou purement formel ? L’article 22 du RGPD et l’AI Act européen imposent de répondre à ces questions avant tout déploiement.

Problème du droit à l’effacement. Pour les systèmes d’IA entraînés sur des données personnelles, le droit à l’effacement ne se limite pas à supprimer un enregistrement en base — il peut nécessiter un réentraînement du modèle. Une AIPD doit évaluer comment les demandes d’effacement seront traitées, quelles exemptions s’appliquent, et quel est l’engagement de réentraînement ou d’oubli machine avant déploiement.

Dérive du modèle. Le profil de risque d’un système classique reste globalement stable après déploiement. Les résultats d’un modèle d’IA peuvent évoluer avec les changements de distribution des données, générant des risques absents lors de l’AIPD initiale. Une AIPD IA complète doit inclure un calendrier de suivi et de révision reflétant cette dynamique.

Vous pensez que votre organisation est sécurisée. Mais pouvez-vous le prouver ?

Pour en savoir plus :

Processus d’AIPD pour l’IA : étape par étape

Une AIPD pour un système d’IA doit suivre un processus structuré couvrant à la fois les exigences classiques en matière de vie privée et les risques spécifiques à l’IA. Le cadre suivant répond aux éléments obligatoires de l’article 35 du RGPD tout en intégrant les étapes d’évaluation supplémentaires requises par l’IA.

Étape 1 : Définir le traitement et établir la nécessité. Documentez l’objectif du système d’IA, les données personnelles traitées, la base légale, les catégories de personnes concernées et les résultats attendus. Évaluez la nécessité et la proportionnalité du traitement — le même résultat peut-il être obtenu avec moins de données ? Cela correspond à l’article 35(7)(a) du RGPD et au principe de minimisation de l’article 5. Pour l’AI Act européen, indiquez si le système relève d’une catégorie à haut risque et quelle voie d’évaluation de conformité s’applique.

Étape 2 : Identifier et classifier les risques propres à l’IA. Au-delà des risques classiques, documentez pour le système évalué :

  • Risque décisionnel : Le système prend-il des décisions ayant un impact significatif sur les personnes ? Quel est le taux d’erreur et sa répartition démographique ? Quel est le mécanisme de supervision humaine ?
  • Risque lié aux données d’entraînement : Quelles données personnelles ont été utilisées pour l’entraînement ? Les données d’entraînement peuvent-elles être extraites via des requêtes adverses ?
  • Risque lié aux résultats : Le modèle peut-il produire des résultats révélant des informations personnelles sur des personnes n’interagissant pas directement avec le système ?
  • Risque de dérive : Comment le comportement du modèle sera-t-il suivi dans le temps ? Quels sont les déclencheurs d’une réévaluation ?
  • Risque tiers : À quelles données un fournisseur d’IA a-t-il accès, et son traitement génère-t-il des obligations de conformité indépendantes ?

Étape 3 : Évaluer les risques au regard des droits et libertés. Pour chaque risque identifié, évaluez la probabilité et la gravité du préjudice. Le RGPD exige de prendre en compte la probabilité et l’impact. L’échelle de gravité de l’AI Act européen s’applique pour l’IA à haut risque : les risques pour la santé, la sécurité ou les droits fondamentaux sont prioritaires. Pour HIPAA, cela correspond à l’évaluation des menaces et vulnérabilités dans l’analyse de risque de la Security Rule.

Étape 4 : Identifier les mesures techniques et organisationnelles. Pour chaque risque, documentez les contrôles précis permettant de le ramener à un niveau acceptable. Les contrôles vagues ne constituent pas des conclusions. Les contrôles précis, si : application ABAC au niveau opérationnel, chiffrement validé FIPS 140-3 niveau 1 en transit et au repos, journaux d’audit infalsifiables attribués à des autorisateurs humains, et plan de réponse à l’effacement documenté.

Étape 5 : Déterminer le risque résiduel et documenter le résultat. Après application des contrôles, évaluez le risque résiduel. Si ce risque reste élevé, l’article 36 du RGPD impose une consultation préalable de l’autorité de contrôle avant déploiement. Documentez la décision avec justification et conservez-la dans vos registres de l’article 30. Révisez à chaque modification substantielle du système.

Étape 6 : Mettre en place un suivi et une révision régulière. Documentez comment le profil de risque du système sera suivi après déploiement, quels événements déclenchent une révision de l’AIPD (mise à jour du modèle, nouvelle source de données, changement d’usage, évolution réglementaire ou plainte d’un concerné), et qui en est responsable. Pour l’alignement NIST AI RMF, cela correspond aux fonctions Gérer et Gouverner — traduire les conclusions en supervision continue.

Tableau 2 : Cadre AIPD IA étape par étape
Étape À évaluer Correspondance RGPD Ajout spécifique à l’IA
1. Définir le traitement Objectif, données, base légale, nécessité, proportionnalité Article 35(7)(a) ; Article 5 Détermination de la catégorie à haut risque selon l’AI Act européen
2. Identifier les risques Risques classiques + décision, données d’entraînement, résultats, dérive, risques tiers Article 35(7)(b) Évaluation de la mémorisation du modèle ; analyse de la répartition démographique des erreurs
3. Évaluer la gravité Probabilité et impact du préjudice pour les personnes concernées Article 35(7)(b) ; Article 22 Échelle de gravité de l’AI Act européen ; évaluation des menaces/vulnérabilités HIPAA ; dimensions de fiabilité NIST AI RMF
4. Identifier les contrôles Mesures techniques et organisationnelles précises par risque Article 35(7)(d) ; Article 25 ; Article 32 Application au niveau des données : ABAC, chiffrement FIPS, journaux d’audit, plan de réponse à l’effacement
5. Risque résiduel Risque après application des contrôles ; consultation préalable si élevé Article 35(7)(d) ; Article 36 Risque résiduel d’opacité du modèle ; risque résiduel d’exposition des données d’entraînement
6. Suivi et révision Suivi post-déploiement, déclencheurs de révision, responsable Article 35(11) Suivi de la dérive du modèle ; alignement avec la fonction Gouverner du NIST AI RMF

Constats fréquents des AIPD IA — et leurs implications

Sur les axes de risque que les AIPD IA font systématiquement émerger, quatre constats reviennent le plus souvent — et chacun correspond à une catégorie précise de contrôle technique à mettre en œuvre au niveau des données pour être défendable lors d’un audit.

Constat : Contrôle d’accès insuffisant pour les interactions IA avec les données. Les systèmes d’IA qui accèdent à des données personnelles sans restrictions opérationnelles créent un échec structurel de minimisation des données. Le contrôle requis est l’application ABAC au niveau opérationnel : l’agent IA est autorisé pour des opérations précises sur des classifications de données spécifiques dans des contextes définis, et tout accès hors périmètre est bloqué en amont. Cela répond simultanément aux articles 5 et 25 du RGPD, à la règle HIPAA du minimum nécessaire, et aux exigences de gouvernance des données de l’AI Act européen.

Constat : Absence de traçabilité des interactions IA avec les données. La plupart des déploiements IA ne peuvent pas produire de registre des données personnelles consultées par le système, à quel moment, sous quelle autorisation, et dans quel but — ce qui bloque la conformité à l’article 30 du RGPD, à l’exigence de contrôle d’audit de la Security Rule HIPAA, et aux obligations de journalisation de l’AI Act européen. Le contrôle requis est une traçabilité infalsifiable au niveau opérationnel — des enregistrements par interaction attribuant chaque accès à un agent authentifié et à un autorisateur humain, alimentant votre SIEM.

Constat : Le chiffrement ne répond pas aux exigences réglementaires. Le TLS au niveau réseau ne suffit pas pour l’article 32 du RGPD, la Security Rule HIPAA ou les exigences fédérales de protection des données pour les systèmes d’IA traitant des données personnelles sensibles. Le standard attendu est le chiffrement validé FIPS 140-3 niveau 1 en transit et au repos — appliqué aux données accédées par les agents IA, et non seulement aux données stockées.

Constat : Absence de plan de réponse à l’effacement documenté. Si l’AIPD révèle que le système d’IA a traité des données personnelles susceptibles de faire l’objet de demandes d’effacement, l’absence de plan de réponse est un constat majeur. Le contrôle requis est une position documentée avant déploiement : quelle exemption au droit à l’effacement s’applique, quel est le délai d’engagement pour le réentraînement, ou quelle capacité d’oubli machine est en place. Ce constat peut aussi déclencher la nécessité de consulter le DPO selon l’article 36 du RGPD avant déploiement.

Transformer les constats d’AIPD en gouvernance IA défendable

Une AIPD qui identifie des risques sans déboucher sur des contrôles techniques applicables n’est qu’un artefact de conformité, pas un programme de conformité. Les constats les plus fréquents des AIPD IA — périmètre d’accès insuffisant, absence de traçabilité, chiffrement inadéquat, obligations d’effacement non résolues — pointent tous vers la même faille structurelle : des systèmes d’IA déployés sans gouvernance au niveau des données pour appliquer les recommandations de l’AIPD.

L’IA conforme Kiteworks intègre ces contrôles au sein du Réseau de données privé avant toute interaction d’un agent IA avec des données personnelles. Si une AIPD identifie un périmètre d’accès insuffisant, Kiteworks applique la politique ABAC au niveau opérationnel. Si elle relève l’absence de traçabilité, Kiteworks capture une traçabilité infalsifiable par interaction, attribuée à un autorisateur humain, structurée pour répondre simultanément aux exigences de l’article 30 du RGPD, de la Security Rule HIPAA et de la journalisation de l’AI Act européen. Si elle identifie des lacunes de chiffrement, Kiteworks applique le chiffrement validé FIPS 140-3 niveau 1 en transit et au repos, avec des clés contrôlées par le client pour les besoins de souveraineté des données.

Résultat : les constats d’AIPD qui génèrent habituellement des mois de remédiation sont directement couverts par les fonctions existantes de Kiteworks. La gouvernance des données IA n’est plus un projet post-AIPD, mais l’architecture qui rend chaque future AIPD gérable dès le premier jour.

Kiteworks IA conforme : conçu pour répondre aux exigences des AIPD

Les contrôles techniques recommandés par une AIPD pour les systèmes d’IA — restrictions d’accès au niveau opérationnel, traçabilité infalsifiable, chiffrement validé, identité d’agent authentifiée — sont simples à spécifier. Leur mise en œuvre continue, contraignante et prête à l’audit pour chaque interaction IA avec des données personnelles est le véritable défi.

L’IA conforme Kiteworks intègre ces quatre contrôles dans le Réseau de données privé avant tout mouvement de données :

  • Politique ABAC au niveau opérationnel conforme aux articles 5 et 25 du RGPD et à la règle HIPAA du minimum nécessaire ;
  • Chiffrement validé FIPS 140-3 niveau 1 en transit et au repos, répondant à l’article 32 et à la Security Rule HIPAA ;
  • Traçabilité infalsifiable par interaction, alimentant votre SIEM pour la conformité à l’article 30 et à la journalisation de l’AI Act européen ;
  • Identité d’agent authentifiée, liée à un autorisateur humain pour une chaîne de délégation complète.

Si votre DPO ou auditeur vous demande comment votre organisation applique les contrôles identifiés par votre AIPD, la réponse est dans l’architecture, pas dans un plan projet.

Contactez-nous pour découvrir comment Kiteworks répond à vos constats d’AIPD.

Foire aux questions

Une AIPD est obligatoire selon l’article 35 du RGPD lorsque le traitement par IA est « susceptible d’engendrer un risque élevé » pour les droits et libertés des personnes. Trois catégories déclenchent automatiquement cette obligation : profilage systématique ou prise de décision automatisée ayant des effets significatifs sur les individus ; traitement à grande échelle de données de catégories particulières (santé, biométrie, finance, justice) ; et surveillance systématique de zones accessibles au public. La plupart des déploiements d’IA en entreprise dans la santé, la finance, les RH et l’analyse client remplissent au moins un de ces critères. Les autorités européennes publient des listes de traitements nécessitant une AIPD, et l’IA y figure presque toujours. En cas de doute, réalisez l’évaluation — le coût d’une AIPD « inutile » est inférieur à celui d’une AIPD manquante.

Une AIPD RGPD évalue les risques pour les droits des personnes liés au traitement de données personnelles, en se concentrant sur la nécessité, la proportionnalité et les garanties techniques. Une analyse de risque HIPAA évalue les menaces et vulnérabilités pour la confidentialité, l’intégrité et la disponibilité des informations médicales protégées électroniques. Une évaluation de conformité AI Act européen vérifie si un système d’IA à haut risque répond aux exigences de gouvernance des données, de transparence, de supervision humaine et de robustesse avant déploiement. Les trois cadres se recoupent fortement — une AIPD IA bien structurée intégrant l’analyse des menaces HIPAA et la documentation technique AI Act européen peut satisfaire les trois simultanément, réduisant la charge d’évaluation tout en produisant un dossier de risques plus solide.

Le NIST AI RMF s’articule autour de quatre fonctions — Cartographier, Mesurer, Gérer et Gouverner — qui couvrent le risque IA sur tout son cycle de vie. Il est volontaire dans la plupart des cas, mais de plus en plus cité dans les marchés publics fédéraux et les guides sectoriels. La fonction Cartographier correspond à la définition du périmètre et de la nécessité d’une AIPD ; Mesurer à l’identification des risques ; Gérer à la mise en œuvre des contrôles ; et Gouverner aux obligations de suivi imposées par l’article 35(11) du RGPD. Les organisations menant une AIPD RGPD peuvent intégrer l’alignement NIST AI RMF avec peu de documentation supplémentaire. Les programmes de gouvernance IA fondés sur le NIST AI RMF sont aussi bien positionnés pour la conformité AI Act européen à mesure que l’application progresse.

Quatre catégories de contrôles reviennent dans quasiment toutes les AIPD IA portant sur des données personnelles : application ABAC au niveau opérationnel pour limiter l’accès des agents IA au strict nécessaire ; chiffrement validé FIPS 140-3 niveau 1 en transit et au repos couvrant tous les accès agents IA ; journaux d’audit infalsifiables attribuant chaque interaction à un autorisateur humain authentifié ; et plan de réponse à l’effacement documenté pour les demandes concernant des données traitées par IA. Les contrôles vagues ne constituent pas des conclusions d’AIPD — chacun doit être précis, techniquement applicable, et attribué à un responsable avec une date cible de mise en œuvre.

L’article 35(11) du RGPD impose une révision de l’AIPD dès qu’un changement de traitement peut générer de nouveaux risques ou en accroître certains. Pour les systèmes d’IA, les déclencheurs sont : toute mise à jour ou réentraînement du modèle modifiant son comportement ; toute nouvelle source de données ajoutée à l’entraînement ou à l’inférence ; toute extension d’usage ou de périmètre de déploiement ; toute plainte d’un concerné ou enquête d’une autorité ; et toute évolution réglementaire majeure. Au-delà des révisions déclenchées par événement, la meilleure pratique « privacy by design » et la fonction Gouverner du NIST AI RMF recommandent une révision annuelle comme base pour les systèmes d’IA traitant des données personnelles à grande échelle.

Ressources complémentaires

  • Article de blog
    Stratégies Zero‑Trust pour une protection abordable de la vie privée avec l’IA
  • Article de blog
    Pourquoi 77 % des organisations échouent à sécuriser les données IA
  • eBook
    L’écart de gouvernance IA : pourquoi 91 % des petites entreprises jouent à la roulette russe avec la sécurité des données en 2025
  • Article de blog
    Il n’existe pas de « –dangerously-skip-permissions » pour vos données
  • Article de blog
    Les régulateurs ne se contentent plus de demander si vous avez une politique IA. Ils veulent des preuves concrètes.

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks