Minuspunkte für Hautfarbe

Algorithmen sollen die Nierenfunktion berechnen oder ein Herzversagen vorhersagen. Und verwenden dabei die Hautfarbe als zentrales Kriterium. Einige medizinische Algorithmen liefern daher diskriminierende Resultate – auch in der Schweiz.

Bei vielen medizinische Algorithmen fliessen Hautfarbe oder ethnische Herkunft der Patient·innen in die Berechnung ein. So empfiehlt die American Heart Association, einen Algorithmus zu verwenden, um das Risiko für Herzversagen zu berechnen. Menschen, die als «nicht-schwarz» kategorisiert werden, erhalten dabei automatisch drei zusätzliche Punkte. Der Algorithmus stuft ihr Risiko höher ein und sie werden dadurch schneller behandelt. Ganz ähnlich funktioniert der «STONE» Algorithmus, der die Wahrscheinlichkeit für Nierensteine schätzen soll. Auch hier erhalten «nicht-schwarze» Menschen zusätzliche Punkte – und damit eine bessere Behandlung.

Eine neue Studie im New England Journal of Medicine analysiert die systematische Benachteiligung von People of Color (PoC) durch medizinische Algorithmen und reiht sich in die wachsende Kritik von rassistisch verzerrten Algorithmen ein. Besonders brisant ist, dass die Studienautor·innen in beiden genannten Fällen keine Begründung erhielten für die angepassten Scores bei Menschen, die als «schwarz» gelten. Weitere untersuchte medizinische Algorithmen basieren auf veralteten oder rassistisch verzerrten Daten.

Einsatz auch in der Schweiz

Das gilt ebenfalls für die weit verbreiteten Schätzformeln für die Nierenfunktion, die auch in der Schweiz eingesetzt werden. Weil es sehr aufwändig ist, die Funktionstüchtigkeit der Nieren direkt und präzis zu messen, wird im Normalfall stellvertretend der Kreatininwert im Blutserum gemessen. Zusammen mit weiteren Variablen schätzen Formeln anschliessend die tatsächliche Nierenfunktion. Zu den Variablen gehören das Geschlecht, das Alter und die «Rasse» – eine Kategorie aus der pseudowissenschaftlichen Rassenkunde, wo lediglich zwischen «schwarz» und «nicht-schwarz» unterschieden wird. Daraus ergibt sich die sogenannte «estimated glomerular filtration rate» (eGFR) – ein Wert, der für die weitere Behandlung zentral ist und mitunter bestimmt, ob eine Person auf die Warteliste für eine Nierentransplantation kommt oder nicht (bei Transplantationen kommen auch weitere und präzisere Werte ins Spiel).

Das Problem: Die beiden am weitesten verbreiteten Schätzformeln – MDRD und CKD-EPI – berechnen für Menschen, die als «schwarz» kategorisiert werden, automatisch eine vermeintlich bessere Nierenfunktion. Bei MDRD ist diese um 21 Prozent besser, bei CKD-EPI noch 16 Prozent. Ein grosser Unterschied, der die Behandlung stark beeinflusst.

Auch in der Schweiz kommt die Schätzformel CKD-EPI zum Einsatz. Recherchen von AlgorithmWatch zeigen, dass die fünf Schweizer Universitätskliniken CKD-EPI ebenfalls einsetzen. Daniel Sidler vom Inselspital Bern erklärt, dass dabei der «Ethnizitätsfaktor» manuell durch die untersuchende Person bestimmt und ergänzt werde. Auch Thomas Müller vom Universitätsspital Zürich (USZ) bestätigt, dass bei ihnen CKD-EPI verwendet wird. Ein Fachmediziner an der CHUV von Lausanne sagt AlgorithmWatch, dass CKD-EPI bei ihnen standardmässig für «Kaukasier» eingestellt wird, und dass Praktiker·innen die Ergebnisse nach der «Ethnie» der Patient·innen einpassen sollen.

Bei der Genfer HUG nutzt man ein Online-Tool um die CKD-EPI Wert zu berechnen. Die Anwendung bietet eine Option, wo man zwischen «African-American» und «alle andere Rassen» wählen muss. Unser Gesprächspartner hat nicht geantwortet, als wir ihn gefragt haben, ob Patient·innen von der Nutzung dieses Tools informiert wurden.

Rassistische Verallgemeinerungen

Die Ärzt*innen rechtfertigen gegenüber AlgorithmWatch die Korrektur für «schwarze» Menschen damit, dass Menschen mit dunklerer Hautfarbe mehr Kreatinin pro Tag produzierten. Dafür gibt es keine Beweise. Viel eher hängt die Kreatininproduktion von der Muskelmasse ab. Bereits die Studie aus dem Jahr 2009 – auf der die Schätzformel CKD-EPI basiert – begründet jedoch die Anpassung für «Schwarze» mit der Annahme, dass diese eine höhere Muskelmasse hätten und deshalb mehr Kreatinin produzierten. Dabei wird mit der «Rasse» ein sozialer Marker als irreführender und falscher Hinweis für genetische und individuelle Unterschiede verwendet.

Solche diskriminierenden Methoden geraten immer mehr in die Kritik. Auch in der Schweiz gibt es Widerstand. «Die Idee, dass Schwarze Menschen mehr aushalten können, weil sie physisch stärker sind als weisse Menschen ist absolut rassistisch», sagt Li Owzar vom Verein Diversum gegenüber AlgorithmWatch. «Eine Kategorisierung, die aufgrund einer wahrgenommenen Hautfarbe geschieht, ist ebenso rassistisch und daher völlig unhaltbar.» Auch in Schweizer Spitälern würden rassistische Auffassungen – zum Beispiel, dass Schwarze Menschen Schmerz besser ertragen würden – zu lebensgefährlichen Situation für Schwarze Menschen führen.

Bei den Schätzformeln für eGFR zogen bereits frühere Studien solche medizinischen Verallgemeinerungen in Zweifel. So liegen die Formeln je nach Population oft systematisch daneben. Das zeigen Studien aus Japan, Pakistan oder Indien. Die Kritik führte an mehreren US-Spitälern dazu, dass die Schätzformeln verbannt wurden. Nicht so in der Schweiz, wo sie in vielen Publikationen weiterhin als beste und gut validierte Variante gelten – sie würden «an unterschiedlichen Populationen und vor verschiedenen klinischen Hintergründen überprüft».

Dieses Fazit ist angesichts der breiten Kritik fragwürdig. Vor allem in der Schweiz ist die Studienlage zur Erforschung der Diskriminierung von PoC sehr dünn. Doch systematische und unabhängige Studien wären um so wichtiger, weil medizinische Algorithmen die rassistischen Verzerrungen bei der Erhebung von Gesundheitsdaten widerspiegeln, mit denen die Schätzformeln anschliessend legitimiert werden sollen. Was für Algorithmen im Allgemeinen gilt, stimmt natürlich auch für die eGFR-Schätzformeln: Ist die Datengrundlage schlecht, resultiert ein unbrauchbarer Algorithmus. In diesem Fall ein Algorithmus, der PoC systematisch diskriminiert. Und mitunter eine schlechtere Behandlung zur Folge hat.

Ergänzende Recherche: Nicolas Kayser-Bril

AlgorithmNews CH - abonniere jetzt unseren Newsletter!