Agents IA, HIPAA et le problème d’accès aux informations médicales protégées

Les organisations de santé déploient des agents IA à un rythme soutenu. Assistants de documentation clinique, workflows d’autorisation préalable, générateurs de comptes rendus de sortie et outils de pré-admission des patients ont tous un point commun : ils accèdent à des informations médicales protégées (PHI). Cela les soumet à la réglementation HIPAA, exactement comme tout employé ou partenaire accédant à des PHI.

Table of Contents

Les obligations de conformité ne changent pas parce que l’utilisateur est une machine. Les règles HIPAA sur la confidentialité, la sécurité et la notification des violations sont centrées sur les données, pas sur la personne ou le système qui y accède. Un agent IA qui interroge un dossier patient, récupère un résultat de laboratoire ou génère un résumé clinique réalise un accès réglementé aux données. Ce qui importe pour le HHS et les auditeurs, c’est de savoir si cet accès était autorisé, contrôlé, chiffré et tracé. Les amendements 2025 à la règle de sécurité HIPAA — la refonte la plus importante depuis des années — précisent et renforcent ces obligations, supprimant une grande partie de la flexibilité d’implémentation dont les entités couvertes bénéficiaient jusqu’ici.

Cet article explique ce qu’exige HIPAA dans un environnement agentique, détaille les apports des amendements 2025 à la règle de sécurité, identifie les faiblesses des déploiements IA et présente les meilleures pratiques pour bâtir une conformité défendable lors d’accès aux PHI par des agents IA.

Résumé Exécutif

À retenir : HIPAA impose des obligations de contrôle d’accès, de traçabilité, de limitation au strict nécessaire et de chiffrement à tout système manipulant des PHI — y compris les agents IA. La plupart des organisations de santé ont déployé l’IA sur des workflows contenant des PHI sans gouvernance adaptée, générant une nouvelle catégorie d’accès non audités et non gouvernés aux PHI, qui expose à des risques majeurs de non-conformité HIPAA.

Pourquoi c’est important : Le HHS OCR a clairement indiqué que les outils IA accédant à des PHI relèvent des exigences HIPAA existantes. Les amendements 2025 à la règle de sécurité renforcent encore ce cadre, rendant obligatoires des mesures auparavant « adressables » — dont le chiffrement — et élargissant la responsabilité des partenaires. Une entité couverte incapable de prouver qui a accédé aux PHI, selon quelle autorisation et avec quels contrôles, ne pourra pas défendre sa conformité lors d’un audit. Dans un contexte agentique, une seule faille de contrôle n’est pas un incident isolé — c’est un problème systémique, car l’agent peut avoir accédé à des milliers de dossiers sans gouvernance effective.

Points clés

  1. HIPAA s’applique aux agents IA, quel que soit leur mode de conception ou le modèle utilisé. La réglementation encadre l’accès aux PHI, pas la technologie qui y accède. Qu’un agent utilise un LLM commercial ou un modèle clinique propriétaire est indifférent pour l’auditeur. Ce qui compte, c’est l’autorisation d’accès, la limitation au strict nécessaire, le chiffrement et la traçabilité.
  2. Les instructions système ne sont pas des contrôles d’accès HIPAA. Demander à un agent IA de ne pas accéder à certaines catégories de PHI ne constitue pas un contrôle technique d’accès conforme à la règle de sécurité HIPAA. Ces instructions peuvent être contournées par injection de prompt, annulées par des mises à jour du modèle ou contournées dans des workflows complexes. Seul un contrôle appliqué au niveau des données est défendable lors d’un audit.
  3. Le strict nécessaire doit être appliqué à l’opération, pas au système. Un agent autorisé à lire un dossier patient ne doit pas être automatiquement autorisé à télécharger tous les fichiers, déplacer des données à l’externe ou agir sur des informations non liées. L’étendue des accès doit être évaluée à chaque opération, pas à la session.
  4. Chaque interaction d’un agent IA avec des PHI doit générer une trace d’audit. La règle HIPAA sur la traçabilité (§164.312(b)) impose de tracer et d’examiner les activités sur les systèmes contenant des PHI, au niveau de l’opération. Si les interactions des agents IA ne sont pas capturées dans un journal d’audit infalsifiable, l’organisation ne respecte pas cette exigence.
  5. Les amendements 2025 à la règle de sécurité comblent les failles exploitées par les déploiements IA. Chiffrement obligatoire, analyse des risques renforcée, responsabilité accrue des partenaires et contrôles de cybersécurité codifiés impactent directement la gouvernance des agents IA. Les organisations dont la conformité précède les déploiements IA sont déjà en retard.

Ce que HIPAA exige des systèmes IA

La règle de sécurité HIPAA définit des mesures techniques applicables à tout système accédant, stockant ou transmettant des PHI électroniques. Il n’existe aucune exemption pour les agents IA, workflows automatisés ou applications de machine learning. Quatre standards sont particulièrement concernés par les déploiements agentiques.

Contrôle d’accès et identification unique de l’utilisateur (§164.312(a)(1) et §164.312(a)(2)(i))

Seules les personnes ou programmes autorisés peuvent accéder aux ePHI, chacun devant disposer d’un identifiant unique permettant d’attribuer l’accès. Les agents IA fonctionnent souvent via des comptes de service partagés ou des clés API sans identité propre ni traçabilité au niveau du workflow. Lorsqu’un auditeur demande quel agent a accédé à un dossier patient et qui l’a autorisé, une clé API partagée ne fournit aucune réponse.

Traçabilité (§164.312(b))

Les entités couvertes doivent mettre en place des mécanismes pour enregistrer et examiner l’activité sur les systèmes contenant des PHI. Pour les agents IA, la trace d’audit doit inclure l’opération réalisée, les données consultées, l’identité de l’agent, l’auteur humain de l’autorisation et l’horodatage — pas seulement la session. Les journaux d’appels API et d’inférence LLM enregistrent les événements à un niveau trop global pour satisfaire à cette exigence.

Accès au strict nécessaire (Privacy Rule §164.502(b))

L’accès aux PHI doit se limiter à ce qui est requis pour la tâche en cours. Lorsqu’un agent IA accède à un référentiel PHI via un compte de service, il a techniquement accès à tous les dossiers accessibles par ce compte. Rien dans l’architecture IA standard ne limite l’agent aux seules données nécessaires au workflow en cours. Respecter ce principe suppose une évaluation des droits à l’opération, pas à la session.

Chiffrement (§164.312(a)(2)(iv) et §164.312(e)(2)(ii))

Dans la version initiale de la règle de sécurité, le chiffrement était « adressable », c’est-à-dire que les entités couvertes pouvaient documenter une alternative équivalente. Les amendements 2025 suppriment cette flexibilité : le chiffrement des ePHI en transit et au repos devient obligatoire. Chaque flux de données IA — appels API vers les référentiels PHI, mémoires d’agent, caches temporaires, canaux de sortie — doit utiliser des modules cryptographiques validés. Les implémentations TLS standards sans validation FIPS 140-3 ne suffisent plus.

Liste de contrôle complète des exigences HIPAA

Pour en savoir plus :

Conséquences des amendements 2025 de la règle de sécurité HIPAA sur la gouvernance IA

Les amendements 2025 à la règle de sécurité sont arrivés alors que les déploiements d’agents IA dans la santé s’accéléraient, et ils ciblent directement les failles exploitées par les architectures agentiques. Quatre évolutions sont majeures pour les organisations déployant l’IA sur des PHI.

Le chiffrement devient obligatoire

La suppression du caractère « adressable » du chiffrement est le changement le plus impactant. Tout flux de données PHI touché par un agent IA — y compris le stockage temporaire et les pipelines d’inférence — doit désormais utiliser un chiffrement validé. Les organisations qui s’appuient sur du TLS non validé ou laissent des caches d’agent non chiffrés ont l’obligation claire de combler ces failles.

L’analyse des risques doit couvrir les systèmes IA

Les amendements renforcent le §164.308(a)(1), imposant des analyses de risques plus rigoureuses et documentées. Une analyse qui ne mentionne pas les agents IA alors qu’ils accèdent aux PHI ne sera pas jugée conforme. L’analyse doit inventorier chaque système IA, évaluer les contrôles encadrant ses accès PHI et documenter un plan de remédiation des écarts.

La responsabilité des partenaires est directement opposable

Les partenaires assument désormais une responsabilité directe au titre de la règle de sécurité, et non plus seulement contractuelle via le BAA. Les fournisseurs IA dont l’infrastructure traite des PHI ont des obligations de conformité propres. Les organisations de santé doivent s’assurer que leurs partenaires IA prouvent leur conformité à la règle de sécurité et revoir les BAA en conséquence.

Les contrôles de cybersécurité de base sont désormais codifiés

L’authentification multifactorielle, la segmentation réseau et la gestion des vulnérabilités deviennent des exigences explicites. Pour les déploiements IA, l’architecture réseau exposant les sources PHI aux appels API des agents doit respecter les nouvelles exigences de segmentation — et pas seulement la configuration applicative de l’agent.

Les faiblesses des déploiements IA

La plupart des déploiements IA dans la santé suivent le même schéma : un agent connecté à une source PHI via API, gouverné par un compte de service et une instruction système. Cette architecture échoue sur plusieurs dimensions HIPAA à la fois.

Absence d’identité agent et de chaîne de délégation

Les comptes de service authentifient le système, pas l’agent ni le workflow. Si plusieurs agents partagent un identifiant, ou si la trace d’accès ne relie pas à l’opérateur humain ayant autorisé le workflow, il n’y a pas de chaîne de responsabilité. C’est une violation directe de la règle d’identification unique — et cela empêche toute enquête sur la question essentielle : qui a autorisé cet accès ?

Des logs qui ne répondent pas aux exigences HIPAA

Les journaux applicatifs standards enregistrent la session, mais pas quelles PHI ont été consultées, quelle opération a été réalisée ou quelle règle a encadré la décision. L’exigence HIPAA en matière de traçabilité est spécifique à l’opération et aux données. Les logs d’appels API et d’inférence LLM ne répondent pas à ce critère — et ne sont pas infalsifiables.

Absence structurelle du strict nécessaire

Si un agent peut accéder à tout dossier accessible par un compte de service, la limitation au strict nécessaire n’est pas un simple paramétrage — elle est absente de l’architecture. La remédiation impose une évaluation des droits à chaque opération : chaque demande de données doit être évaluée selon la tâche, le contexte patient et l’opération réalisée. Aucune architecture IA standard ne propose cela sans une couche de gouvernance dédiée.

Bonnes pratiques pour un accès agent IA aux PHI conforme HIPAA

1. Authentifier chaque agent IA et préserver la chaîne de délégation

Chaque agent IA accédant à des PHI doit disposer d’un jeton d’identité unique, provisionné au niveau du workflow et lié à l’opérateur humain qui l’a autorisé. L’événement d’authentification et la chaîne de délégation complète doivent figurer dans chaque trace d’accès. Les comptes de service et clés API partagés ne suffisent pas, quelle que soit leur portée.

2. Appliquer la politique d’accès à l’opération

Mettez en œuvre un contrôle d’accès basé sur les attributs (ABAC) qui évalue chaque demande de données selon le profil authentifié de l’agent, la classification PHI, le contexte du workflow et l’opération demandée. Un agent autorisé à lire une note de consultation en cours n’est pas automatiquement autorisé à télécharger l’ensemble du dossier ou à transférer des données à l’externe.

3. Mettre en place une traçabilité infalsifiable au niveau de l’opération

Chaque interaction agent IA/PHI doit être tracée au niveau de l’opération : identité de l’agent, auteur humain, type d’opération, dossiers consultés, contexte de la règle et horodatage. Le journal doit être infalsifiable et alimenter le SIEM de l’organisation afin que toute anomalie d’accès PHI soit détectée en temps réel — et non lors d’une enquête post-incident.

4. Vérifier le chiffrement validé FIPS 140-3 sur chaque flux de données

Auditez chaque composant du flux de données agent IA — appels API, hébergement du modèle, bases vectorielles, stockage temporaire, canaux de sortie — et vérifiez la validation FIPS 140-3 pour chacun. Selon les amendements 2025, une simple mention d’AES-256 ne suffit plus. Une certification de module validé est requise.

5. Mettre à jour l’analyse des risques pour couvrir les déploiements IA

Mettez à jour l’analyse des risques HIPAA de l’organisation pour inventorier chaque agent IA accédant aux PHI, évaluer les contrôles associés et documenter un plan de remédiation avec échéances. Selon les amendements 2025, une analyse des risques antérieure aux déploiements IA n’est pas conforme — et son absence constitue un manquement en soi.

Comment Kiteworks facilite la gouvernance des agents IA conforme HIPAA

Les outils de conformité HIPAA traditionnels ont été conçus pour des interactions humaines avec les données. Les agents IA opèrent à une toute autre échelle et vitesse — multipliant les appels API, sollicitant des outils MCP et exécutant des workflows complexes qu’un contrôle manuel ne peut encadrer. Les amendements 2025 à la règle de sécurité HIPAA élèvent encore le niveau d’exigence. La gouvernance doit s’appliquer au niveau des données, indépendamment du modèle, et à la vitesse de l’agent.

Le Réseau de données privé Kiteworks offre aux entités couvertes et partenaires une couche de gouvernance qui intercepte chaque interaction agent IA/PHI avant qu’elle n’ait lieu — vérifiant l’identité de l’agent, évaluant la politique ABAC, appliquant un chiffrement validé FIPS 140-3 et enregistrant chaque opération dans un journal d’audit infalsifiable. Chaque workflow agent hérite automatiquement des contrôles HIPAA, intégrés à l’architecture dès la conception.

Identité agent et chaîne de délégation

Kiteworks vérifie l’identité de chaque agent IA avant tout accès aux PHI et la relie à l’auteur humain ayant délégué le workflow. La chaîne de délégation complète est conservée dans chaque trace d’audit, conformément au §164.312(a)(2)(i), fournissant aux auditeurs une preuve traçable et documentée des accès autorisés.

ABAC au niveau opération et application du strict nécessaire

Le moteur de politique de données de Kiteworks évalue chaque demande d’accès agent selon une politique multidimensionnelle : profil authentifié, classification PHI, contexte du workflow et opération demandée. Un agent autorisé à lire un résumé de consultation ne peut pas, par défaut, télécharger l’intégralité du dossier ou transférer des données à l’externe — ces restrictions sont imposées par la gouvernance, pas par une instruction système.

Chiffrement FIPS 140-3 et journal d’audit infalsifiable

Toutes les PHI consultées via Kiteworks sont protégées par un chiffrement validé FIPS 140-3 niveau 1, en transit et au repos, répondant aux exigences désormais obligatoires de la règle de sécurité HIPAA. Chaque interaction agent/PHI est tracée dans un journal infalsifiable alimentant directement le SIEM de l’organisation. Lorsqu’un auditeur demande un dossier de preuves, la réponse est un rapport, pas une enquête.

Opérations de documentation clinique gouvernées

Les fonctions de gestion de dossiers et de fichiers gouvernés de Kiteworks Compliant AI permettent aux agents IA de structurer la documentation clinique et de gérer les hiérarchies de dossiers patients, chaque action étant encadrée par le moteur de politique de données. Les hiérarchies de dossiers héritent automatiquement des contrôles RBAC/ABAC, répondant aux exigences HIPAA de séparation des dossiers sans intervention manuelle.

Pour les organisations de santé souhaitant accélérer l’adoption de l’IA sans accumuler de dette de conformité, Kiteworks rend chaque interaction agent IA/PHI défendable par conception. Découvrez les fonctions de conformité HIPAA de Kiteworks ou demandez une démo.

Foire aux questions

Oui. La règle de sécurité HIPAA impose des contrôles techniques d’accès, une traçabilité, l’application du strict nécessaire et un chiffrement validé à tout système accédant aux ePHI — y compris les agents IA. Les amendements 2025 renforcent ces exigences, rendant le chiffrement obligatoire et durcissant l’analyse des risques. Une entité couverte qui déploie un agent IA sur des PHI sans identité agent authentifiée, journalisation au niveau opération et politique ABAC ne peut pas satisfaire aux exigences de la règle de sécurité pour les accès ePHI.

Non. Les instructions système relèvent du modèle, pas du contrôle d’accès au niveau des données. Elles peuvent être contournées par injection de prompt, annulées par des mises à jour du modèle ou mal interprétées dans des workflows complexes. Le strict nécessaire HIPAA exige que l’accès aux PHI soit techniquement limité à ce qui est requis pour la tâche. Seule une application de la règle au niveau des données — où la gouvernance fonctionne indépendamment du modèle — constitue un contrôle défendable lors d’un audit pour un accès agent IA aux PHI.

Oui. Si l’infrastructure d’un fournisseur IA accède, traite ou transmet des PHI — même de façon transitoire lors de l’inférence — cela relève du rôle de partenaire au sens HIPAA. Un BAA est requis. Les amendements 2025 élargissent la responsabilité directe des partenaires, rendant la conformité du fournisseur opposable. Les organisations de santé doivent auditer chaque composant de l’architecture IA, y compris l’hébergement du modèle, les passerelles API et les bases vectorielles, pour vérifier la couverture BAA de chaque flux de données PHI touché par l’agent.

Une traçabilité conforme HIPAA doit enregistrer l’identité authentifiée de l’agent, l’auteur humain ayant délégué le workflow, l’opération réalisée (lecture, upload, téléchargement, déplacement, suppression), les dossiers PHI consultés, le contexte de la règle ayant motivé la décision d’accès et un horodatage infalsifiable. Les journaux d’appels API et de sessions LLM ne suffisent pas. Le journal doit être au niveau opération, spécifique aux données et protégé structurellement contre toute modification.

La gouvernance au niveau du modèle repose sur des instructions, filtres et ajustements appliqués au modèle IA lui-même. Ces contrôles peuvent être contournés et ne sont pas vérifiables de façon indépendante par un auditeur. La gouvernance au niveau des données intercepte chaque demande d’accès avant qu’elle n’atteigne la source PHI, appliquant identité authentifiée, politique ABAC, chiffrement et traçabilité indépendamment du modèle. Pour HIPAA, seule la gouvernance au niveau des données permet à une entité couverte de démontrer ses contrôles à un auditeur sans dépendre des attestations du fournisseur sur le comportement du modèle.

Les amendements 2025 créent quatre obligations majeures pour les déploiements IA : le chiffrement des ePHI en transit et au repos devient obligatoire, chaque flux de données agent IA doit donc utiliser des modules cryptographiques validés ; les analyses de risques doivent cibler spécifiquement les systèmes IA accédant aux PHI ; les partenaires, y compris les fournisseurs IA, assument une responsabilité directe au titre de la règle de sécurité ; et des contrôles codifiés comme l’authentification multifactorielle et la segmentation réseau s’appliquent désormais aux systèmes auxquels accèdent les agents IA. Les organisations dont l’analyse des risques précède les déploiements IA ne sont déjà plus conformes à la nouvelle norme.

Ressources complémentaires

  • Article de blog
    Stratégies Zero-Trust pour une protection abordable de la vie privée avec l’IA
  • Article de blog
    Comment 77 % des organisations échouent sur la sécurité des données IA
  • eBook
    Le fossé de la gouvernance IA : pourquoi 91 % des petites entreprises jouent à la roulette russe avec la sécurité des données en 2025
  • Article de blog
    Il n’existe pas de « –dangerously-skip-permissions » pour vos données
  • Article de blog
    Les régulateurs ne se contentent plus de demander si vous avez une politique IA. Ils veulent des preuves de son efficacité.

Lancez-vous.

Il est facile de commencer à garantir la conformité réglementaire et à gérer efficacement les risques avec Kiteworks. Rejoignez les milliers d’organisations qui ont confiance dans la manière dont elles échangent des données privées entre personnes, machines et systèmes. Commencez dès aujourd’hui.

Table of Contents

Table of Content
Partagez
Tweetez
Partagez
Explore Kiteworks