Home Santé Abattre les barrières qui nous divisent

Abattre les barrières qui nous divisent

0 comments 72 views

L’innovation en santé réclame une approche décloisonnée et une réflexion profonde sur les collaborations interdisciplinaires, trop souvent galvaudées. Alors que la technologie et la médecine progressent à pas de géant, il est crucial d’éviter les écueils d’une spécialisation excessive pour garantir des soins plus efficaces et éthiques.

Le danger des silos dans la recherche et l’innovation

Au fil de nos dix années de collaboration, nous avons souvent souligné l’impact des mots comme « optimisme », « cynisme » ou encore « erreur de diagnostic ». Un terme mérite pourtant une attention renouvelée : « interdisciplinaire ». Trop souvent prononcé sans réelle conviction, il est devenu un vœu pieux pour beaucoup, qui rechignent à fournir l’effort nécessaire pour transformer cette idée en une réalité au service de l’innovation et de la qualité des soins.

Les exemples des limites d’une vision trop étriquée sont légion. Le fossé entre la technologie et la médecine se manifeste, par exemple, avec l’invention des diodes électroluminescentes (DEL) bleues, récompensée par un prix Nobel de physique en 2014 pour Isamu Aksaki, Hiroshi Amano et Shuji Nakamura. Si cette technologie a révolutionné notre éclairage, offrant une lumière vive et économe en énergie, ses concepteurs n’ont pas anticipé ses impacts sur la santé. Une approche interdisciplinaire aurait pu les amener à considérer les effets neurologiques d’une exposition excessive à la lumière bleue. Or, cette lumière, détectée par certaines cellules rétiniennes et abondante dans le soleil, est interprétée par notre cerveau comme un signal d’éveil, rendant le sommeil plus difficile.

Comme le souligne la scientifique des matériaux Ainissa Ramirez, PhD, dans un récent essai : « La culture de la recherche… n’encourage pas à regarder au-delà de sa propre discipline… Les silos académiques nous empêchent de penser de manière large et holistique. » En sciences des matériaux, les critères de sélection se limitent souvent au coût, à la disponibilité et à la facilité de fabrication, reléguant la dimension éthique au rang de cours optionnel. Pourtant, cette réflexion sur les impacts doit être intégrée dès le départ, et non pas comme une pensée après coup.

Les biais algorithmiques, un défi éthique majeur en santé numérique

Ce même problème se pose dans le domaine de la santé numérique. Des data scientists et des investisseurs ont consacré temps et ressources au développement d’algorithmes sophistiqués pour le dépistage et le traitement des maladies. Cependant, certains ont négligé d’examiner attentivement les ensembles de données sur lesquels ces outils sont construits. Ces données, souvent biaisées, ne reflètent pas fidèlement les populations qu’elles sont censées servir, créant ainsi un dilemme éthique urgent.

Les faits parlent d’eux-mêmes. Une analyse d’un ensemble de données commercial utilisé pour la prévision des risques en santé a révélé un manque d’équité. Conçu pour identifier les patients nécessitant une attention particulière, cet ensemble de données a été scruté par Zaid Obermeyer, de l’Université de Californie à Berkeley, et ses collègues. Ils ont observé que parmi plus de 43 000 patients blancs et environ 6 000 patients noirs en soins primaires, lorsque l’algorithme attribuait le même niveau de risque aux patients noirs qu’aux blancs, ces derniers étaient en réalité plus malades que leurs homologues blancs.

Le biais s’explique par l’utilisation des coûts de santé comme indicateur des besoins. Moins d’argent étant dépensé pour les patients noirs de niveau de besoin comparable, l’algorithme en conclut, à tort, qu’ils sont en meilleure santé. « Un biais se produit parce que l’algorithme utilise les coûts de santé comme indicateur des besoins de santé. Moins d’argent est dépensé pour les patients noirs qui ont le même niveau de besoin, et l’algorithme conclut ainsi à tort que les patients noirs sont en meilleure santé que les patients blancs tout aussi malades. »

De même, une étude argentine portant sur des réseaux neuronaux appliqués à des images radiographiques pour le diagnostic des maladies thoraciques a mis en évidence des inégalités. Les chercheurs ont comparé des ensembles de données déséquilibrés en termes de genre à des ensembles équilibrés. Ils ont constaté qu’avec une répartition de 25 % pour la classe minoritaire et 75 % pour la classe majoritaire, « la performance moyenne pour toutes les maladies dans la classe minoritaire est nettement inférieure à celle d’un modèle formé avec un ensemble de données parfaitement équilibré ». Les données sous-représentant un genre conduisent ainsi à des classificateurs biaisés, pouvant entraîner des erreurs de diagnostic.

Vers une solution collaborative et transparente

Ces disparités réaffirment la nécessité d’une collaboration étroite entre technologues, cliniciens et éthiciens. Mais comment agir concrètement ? Face à des problèmes d’une telle complexité, une mesure précise est indispensable avant toute correction. C’est pourquoi la Mayo Clinic, la Duke School of Medicine et Optum/Change Healthcare analysent actuellement un ensemble massif de données comprenant plus de 35 milliards d’événements de santé et environ 16 milliards de rencontres, incluant les déterminants sociaux de la santé. Cette démarche permettra de stratifier les données selon l’origine ethnique, le revenu, la localisation géographique, le niveau d’éducation, etc.

La création d’une plateforme évaluant systématiquement l’équité et la précision des algorithmes commerciaux est une autre piste prometteuse. Elle fournirait des « étiquettes nutritionnelles » pour chaque outil numérique, détaillant ses sources de données, ses protocoles de validation, la composition des populations étudiées et ses performances. Des outils analytiques spécifiques, tels que TCAV de Google, Audit-AI et AI-Fairness 360 d’IBM, existent déjà pour détecter les biais algorithmiques.

Les barrières qui fragmentent le secteur de la santé peuvent être surmontées. Il faut de la détermination, une foi inébranlable en la possibilité de réaliser cet objectif, et surtout, un travail acharné.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.