Discrimination par des algorithmes médicaux

Algorithmes médicaux : la discrimination des Noir·es est une réalité, en Suisse aussi

par Florian Wüstholz

Les algorithmes utilisés pour évaluer la fonction rénale ou prédire une insuffisance cardiaque utilisent la race comme critère central, sans aucune justification scientifique. Les résultats discriminent les patient·es Noir·es.

Aux États-Unis, de nombreux algorithmes médicaux utilisent la race des patient·es dans leurs calculs. L'American Heart Association, par exemple, recommande d'utiliser un algorithme pour calculer le risque d'insuffisance cardiaque. Les personnes classées comme « non noires » reçoivent automatiquement trois points supplémentaires (sur 100 points possibles). L'algorithme évalue leur risque comme étant plus élevé, ce qui peut se traduire par une prise en charge plus rapide en cas d’incident. L'algorithme STONE, qui estime la probabilité d'avoir des calculs rénaux, fonctionne de manière très similaire. Là aussi, les personnes « non noires » reçoivent trois points supplémentaires (sur 13 points possibles) – et potentiellement un meilleur traitement.

Une étude récente publiée dans le New England Journal of Medicine analyse la discrimination systématique des personnes racisées par les algorithmes médicaux. Elle s’inscrit dans un mouvement de plus en plus important critiquant les biais racistes présents en médecine. En effet, il n'y a aucune raison d'utiliser un concept social (la race) pour évaluer des fonctions biologiques. Dans les deux cas exposés ci-dessus, rien ne semble justifier la pénalisation des scores des personnes « noires ». Ces algorithmes racistes se fondent en général sur des données qui utilisent la race comme un raccourci pour d'autres facteurs, une logique qui équivaut à penser que c’est le fait d’avoir un briquet dans la poche qui provoque le cancer du poumon.

En Suisse aussi

Les formules d'estimation de la fonction rénale, largement utilisées en Suisse, comportent elles aussi un biais raciste. Comme il est très difficile de mesurer précisément la fonction rénale, on utilise comme indicateur la concentration de créatinine dans le sang, une molécule éliminée par les reins. Avec d'autres variables, la formule estime ensuite la fonction rénale réelle. Les variables comprennent le sexe, l'âge et la « race » – où une distinction n'est faite qu'entre « noir » et « non noir ». L'algorithme fournit une valeur unique, le « débit de filtration glomérulaire estimé » ou DFGe. Cette valeur, à son tour, joue un rôle clé dans la décision médicale concernant le traitement à donner aux patient·es. Cela peut par exemple influencer la position d’une personne sur la liste d’attente pour une transplantation rénale, bien que les décisions de transplantation se fondent sur de nombreux autres critères.

Les deux formules les plus largement utilisées pour le DFGe – le MDRD et le CKD-EPI – calculent automatiquement une meilleure fonction rénale pour les personnes classées comme « noires ». Le MDRD augmente le score des « noirs » de 21 pour cent et le CKD-EPI de 16 pour cent. Une grande différence, qui peut influencer les soins que reçoivent les patient·es.

Selon les informations recueillies par AlgorithmWatch, les cinq hôpitaux universitaires de Suisse utilisent la formule CKD-EPI, y compris sa variable raciale. Daniel Sidler de l'Inselspital de Berne explique que le « facteur ethnique » est déterminé manuellement par le professionnel de la santé qui effectue l'examen. Thomas Müller, de l'hôpital universitaire de Zurich (USZ), confirme également qu'ils utilisent le CKD-EPI. Au CHUV de Lausanne, un néphrologue nous a expliqué que l’algorithme y était également utilisé, avec des valeurs par défaut réglées pour des « caucasiens », charge aux praticien·nes de modifier les résultats en fonction de « l’ethnie » des patient·es.

Aux hôpitaux universitaires de Genève, le plus grand groupe hospitalier du pays, les praticien·nes sont encouragé·es à utiliser la formule CKD-EPI grâce à un calculateur en ligne. Cet outil propose une option avec un choix entre « Africains-Américains » et « toutes autres races ». Le HUG n’a pas répondu quand nous leur avons demandé si les patient·es étaient informé·es de l’utilisation de cet outil.

Généralisations racistes

Les deux médecins de l’Inselspital et de l’USZ ont défendu la discrimination de l'algorithme envers les personnes « noires ». Ils ont déclaré à AlgorithmWatch que les personnes dont la peau était plus foncée produisaient plus de créatinine. Il n'y a pourtant aucune preuve que cela soit vrai. La production de créatinine dépend de la masse musculaire, pas de la concentration mélanique (la mélanine est le pigment qui donne sa couleur à la peau). L'étude sur laquelle se fonde la formule d'estimation CKD-EPI justifie l'ajustement pour les « noirs » en supposant que les « noirs » ont une masse musculaire plus élevée et produisent plus de créatinine.

Ces méthodes discriminatoires sont de plus en plus critiquées, en Suisse aussi. « L'idée que les Noirs sont moins sensibles à la douleur parce qu'ils sont physiquement plus forts que les blancs est absolument raciste », a déclaré Li Owzar, co-fondatrice de Diversum, une organisation qui offre des espaces de discussion aux personnes racisées. « Une catégorisation basée sur la couleur de peau estimée est tout aussi raciste et donc totalement intenable. »

Dans le cas du DFGe, plusieurs études ont déjà mis en doute la validité de l’algorithme. Des recherches menées au Japon, au Pakistan et en Inde ont montré que, selon la population, les résultats des formules peuvent être systématiquement faux. Certains hôpitaux américains sont allés jusqu'à interdire ces algorithmes. Ce n'est pas le cas en Suisse, où ils sont toujours considérés comme l’état de l’art dans de nombreuses publications. On peut y lire que les algorithmes sont « testés sur différentes populations et sur différents milieux cliniques ».

Compte tenu des critiques, cette conclusion est discutable. En Suisse en particulier, très peu d'études ont étudié les discriminations dont sont victimes les personnes racisées. Des études systématiques et indépendantes seraient nécessaires, car les algorithmes médicaux reflètent toujours les biais racistes des données sur lesquelles ils sont construits. Ce qui s'applique aux algorithmes en général est bien sûr vrai pour les formules de calcul du DFGe : si les données sont mauvaises, ou si on utilise des raccourcis erronés, le résultat est un algorithme inutilisable. Dans ce cas, le résultat est un algorithme qui discrimine systématiquement les personnes racisées, et qui peut les priver du meilleur traitement possible.

Nicolas Kayser-Bril a contribué à cet article.