Home Santé Normes d’échange de soins de santé : consentement concernant l’IA

Normes d’échange de soins de santé : consentement concernant l’IA

0 comments 28 views

Les patients auront bientôt davantage de contrôle sur l’utilisation de leurs données de santé par les systèmes d’intelligence artificielle (IA). De nouvelles normes en matière de consentement visent à permettre aux individus de choisir précisément comment, et pour quelles raisons, leurs informations médicales sont utilisées par les algorithmes.

Le consentement éclairé concernant l’IA en santé peut prendre plusieurs formes. Un patient peut autoriser l’IA à l’aider dans les décisions cliniques, mais refuser que ses données servent à entraîner de nouveaux modèles. Il peut également accepter que ses informations soient utilisées à des fins de formation, à condition qu’elles soient anonymisées.

Pour gérer ces préférences, un système de consentement basé sur l’« objectif d’utilisation » (PurposeOfUse) est en cours de développement. Cette approche permet aux patients d’autoriser ou de refuser l’accès à leurs données en fonction de la finalité de l’IA, par exemple pour l’entraînement de modèles (MLTRAINING) ou pour l’aide à la décision clinique (TREATDS). L’objectif est de créer un cadre flexible qui ne nécessite pas de mises à jour constantes à chaque fois qu’un nouveau système d’IA est mis au point.

En outre, les développeurs envisagent d’utiliser le vocabulaire standardisé des objectifs d’utilisation pour indiquer clairement la raison pour laquelle une IA accède aux données. Par exemple, l’objectif MLTRAINING est activé lorsqu’une IA a besoin de données pour s’améliorer, tandis que TREATDS est utilisé lorsqu’elle fournit une assistance aux professionnels de santé.

Ce modèle repose sur la confiance : l’IA ou l’agent qui la contrôle doit indiquer avec précision l’objectif d’utilisation lors de l’accès aux données. Bien qu’il s’agisse d’un principe déjà largement appliqué dans le domaine de la santé, son application à l’IA nécessite une attention particulière.

Une autre approche consiste à identifier l’IA spécifique via la ressource « appareil » FHIR (Fast Healthcare Interoperability Resources). Dans ce cas, le consentement peut autoriser ou refuser l’accès à un système ou modèle d’IA particulier. Cependant, cette méthode peut s’avérer fragile, car chaque nouvelle version d’un logiciel d’IA nécessiterait une mise à jour du consentement.

Il est également possible de combiner les deux approches, en autorisant une IA spécifique pour un objectif précis. Enfin, le concept de « limites » d’accès, déjà présent dans les normes FHIR, est étendu pour permettre de définir des restrictions supplémentaires, comme l’obligation d’anonymiser les données (DEID) avant de les utiliser pour l’entraînement d’une IA.

En pratique, un consentement pourrait contenir plusieurs dispositions autorisant ou refusant différentes utilisations de l’IA. Les exemples fournis illustrent la flexibilité de ce système, qui permet de créer un consentement unique reflétant les préférences du patient en matière d’utilisation clinique traditionnelle et d’IA. Ces exemples sont disponibles dans un projet de spécification d’implémentation (IG) sur le consentement relatif à l’IA, qui pourrait être affiné et amélioré à l’avenir.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.