KI & Behinderung
KI und Algorithmen: Wie können Menschen mit Behinderungen von diesen Technologien profitieren?
KI-Anwendungen können den Alltag von Menschen mit Behinderungen erleichtern, andere jedoch ihre Grundrechte tangieren. Ein Überblick über die Chancen und Risiken Künstlicher Intelligenz für Menschen mit Behinderungen.

Dieser Beitrag erschien zuerst im Magazin der Stiftung Rodtegg
Systeme, die auf Algorithmen oder Künstlicher Intelligenz (KI) basieren, werden heute immer mehr eingesetzt: Sei es, um Empfehlungen abzugeben, Prognosen zu erstellen, Entscheidungen über Menschen zu treffen oder um Inhalte zu generieren. Konkret werden sie im Alltag beispielsweise bereits verwendet, um Krankheiten zu diagnostizieren, Versicherungsprämien zu berechnen, Kreditwürdigkeit zu überprüfen, Bewerbungen automatisch zu verarbeiten oder den Anspruch auf Sozialleistungen zu prüfen. Auch in der Schweiz nimmt ihr Einsatz zu, wie der Atlas der Automatisierung von AlgorithmWatch CH zeigt. Über die Chancen und Risiken von Künstlicher Intelligenz wird viel diskutiert. Während einige KI-Anwendungen die Autonomie und Lebensqualität von Menschen mit Behinderungen verbessern können, haben andere jedoch Auswirkungen auf ihre Grundrechte, insbesondere auf den Schutz vor Diskriminierung. Ein kurzer Überblick.
Autonomie und Lebensqualität durch KI verbessern
Viele KI-Systeme versprechen heute, den Alltag von Menschen mit Behinderungen zu erleichtern. Häufig geht es darum, ihnen einen einfacheren Zugang zu Informationen zu ermöglichen, ihre Kommunikationsfähigkeiten zu verbessern und ihre Autonomie zu stärken. Ingo Bosse erklärt in seinem Artikel in dieser Ausgabe, wie KI-Systeme in der unterstützten Kommunikation eingesetzt werden. Applikationen mit Augensteuerung oder Spracherkennung und Sprachassistenz können die Kommunikation bestimmter Personen erleichtern und ihre Unabhängigkeit erhöhen. So können KI-Systeme beispielsweise Bilder oder Videos für Sehbehinderte beschreiben oder Töne in visuelle Darstellungen für Hörbehinderte umwandeln. Inhalte können auch zugänglicher werden, wenn sie durch KI-Systeme automatisch in vereinfachte Sprache übersetzt werden. Auch der Zugang zu Bildung soll verbessert werden, wenn personalisierte Lernplattformen auf die spezifischen Bedürfnisse von Schüler*innen mit Behinderungen zugeschnitten sind. Ein weiterer oft genannter Anwendungsbereich von KI-Systemen ist die Mobilität. Durch Smartphone-Anwendungen, welche eine Echtzeit-Audioführung für die Navigation anbieten, oder Applikationen, welche Menschen mit Behinderungen zugängliche Wege in ihrer Umgebung empfehlen, soll ihre Mobilität verstärkt werden.
Diskriminierung durch KI verstärkt
Einige KI-Tools können den Alltag von Menschen mit Behinderungen erleichtern, während andere Benachteiligungen verstärken und neue Barrieren schaffen können. Wie Andi Weiland in seinem Artikel in dieser Ausgabe zeigt, werden Menschen mit Behinderungen von KI-Bildgeneratoren wie Midjourney oder DALL-E oft als passiv, im Hintergrund stehend und selten als aktive Personen dargestellt. Denn diese Applikationen «übernehmen nicht nur vorhandene Bilder, sondern auch alte Vorurteile», wie Weiland schreibt. Behinderungen können von der Technologie als von der Norm abweichende Merkmale erkannt werden und damit als unerwünscht eingestuft werden. Forscher*innen haben grosse Sprachmodelle, auf denen KI-Systeme basieren, analysiert und dabei herausgefunden, dass alle öffentlichen Modelle, die sie testeten, eine erhebliche Voreingenommenheit gegenüber Behinderungen aufwiesen. Die Modelle stuften Sätze als negativ und problematisch ein, nur weil diese einen Hinweis auf eine Behinderung enthielten. Den Kontext und die tatsächlichen Erfahrungen der Menschen berücksichtigten sie nicht. Der Einsatz von KI-Systemen kann so zu Diskriminierungen führen, denn sie reproduzieren Diskriminierungsmuster, die in der Gesellschaft existieren. Wenn eine algorithmische Analyse durchgeführt wird, wird nach Mustern und nach statistischen Mehrheiten gesucht. Das bedeutet, dass Menschen mit Behinderungen, die nicht in das Durchschnittsbild passen, benachteiligt werden können.
Algorithmische Diskriminierung
Algorithmen sind weder neutral noch objektiv. Sie werden von Menschen gemacht, die dabei bestimmte Annahmen treffen, gewisse Interessen und Ziele verfolgen. Wenn nicht aktiv etwas dagegen unternommen wird, können sich die in einer Gesellschaft bereits existierenden strukturellen Diskriminierungsmuster so im Output der Algorithmen widerspiegeln. Die Ursachen für diese Diskriminierungen können sowohl in den verwendeten Daten (fehlende Repräsentativität, veraltete Daten, gesellschaftlichen Denkmuster und Verzerrungen), im Algorithmus selbst (welche Parameter werden im Modell berücksichtigt, welche nicht) als auch in der Art und Weise, wie er verwendet wird (welchen Bedarf soll das System decken und wie wird es in der Praxis angewendet), liegen.
Zudem werden KI-Systeme in sehr wichtige Aspekte unseres Lebens integriert: Wenn zum Beispiel ein Algorithmus, der die Höhe einer Versicherungsprämie berechnet, Menschen mit Behinderungen diskriminiert, kann es sein, dass sie für eine Versicherung mehr bezahlen müssen oder dass ihnen eine Versicherung verweigert wird. Ähnliche Risiken von Diskriminierungen bestehen in vielen anderen Bereichen, etwa beim Zugang zu Finanzdienstleistungen oder bei automatisierten Rekrutierungsverfahren. Bewerber*innen mit Behinderungen können beispielsweise auch aufgrund von Lücken in ihren Lebensläufen von Algorithmen nicht als geeignete Kandidat*innen berücksichtigt werden. Wenn Job-Interviews durch KI-Systeme durchgeführt werden, können Bewerber*innen mit Behinderungen ausgeschlossen werden, weil die Systeme möglicherweise Schwierigkeiten haben, verschiedene Sprechweisen zu handhaben oder Körpersprache falsch interpretieren.
Die Folgen für die Betroffenen können weitreichend sein. In den USA wird das KI-basierte «Allegheny Family Screening Tool» eingesetzt, um Risikoprofile in der Kinderbetreuung zu erstellen, die als Grundlage für den Entzug elterlicher Sorge dienen können. Bürger*innen haben sich beschwert, dass im System die Tatsache einer Behinderung überproportional gewichtet wird. Dies könnte dazu führen, dass Eltern mit Behinderungen häufiger das Sorgerecht für ihre Kinder entzogen wird – ohne den Kontext zu berücksichtigen. Das System ist Gegenstand einer Untersuchung des US-Justizministeriums. In Grossbritannien verwendet das Ministerium für Arbeit und Renten einen als «General Matching Service» bekannten Algorithmus, um potenzielle Fälle von Sozialleistungsbetrug zu identifizieren. Verbände haben gezeigt, dass das System ungerechterweise auf Menschen mit Behinderungen abzielt, um invasive Untersuchungen durchzuführen. In Österreich verwendete das AMS, das öffentlich-rechtliche Arbeitsamt, einen Algorithmus, um die Wahrscheinlichkeit der Wiedereingliederung von Arbeitslosen in den Arbeitsmarkt zu berechnen. Das System wies Frauen und Personen mit Behinderungen niedrigere Werte als Männern und Personen ohne Behinderung zu. Der Algorithmus neigte dazu, einer arbeitslosen Person mit Behinderung eine niedrigere Punktzahl zuzuweisen, selbst wenn ihre Erfahrungen und Qualifikationen, denen einer Person ohne Behinderung entsprachen. Solche Diskriminierungen sind besonders schwer zu erkennen, da die Betroffenen oft nicht wissen, dass sie Gegenstand einer Entscheidung sind, die von einem algorithmischen System getroffen wird. Und wenn sie es wissen, haben sie kaum die Möglichkeiten, sich dagegen zur Wehr zu setzen.
Bessere Inklusion für einen tatsächlichen Nutzen
Wenn wir dafür sorgen wollen, dass Algorithmen und KI allen zugutekommen, haben wir die Verantwortung, uns der gesellschaftlichen Herausforderungen, mit denen sie einhergehen, ernsthaft anzunehmen. Dazu sollten wir Rahmenbedingungen für die Entwicklung und den Einsatz von Algorithmen und KI gestalten, die Schäden verhindern und einen Nutzen für alle ermöglichen. Zu diesen Rahmenbedingungen gehören zum Beispiel Transparenzanforderungen, Massnahmen, um den Schutz gegen Diskriminierung zu stärken, und der Einbezug von Betroffenen.
Elaine Short, Assistenzprofessorin an der Tufts Universität in den USA, erklärt, dass wir Künstliche Intelligenz als eine assistierende Technologie betrachten können, die uns bei gewissen Aktivitäten unterstützen kann. Menschen mit Behinderungen haben viel Erfahrung darin, soziale und technische Unterstützung zu erhalten und zu geben. Dies macht sie zu einer wertvollen Gemeinschaft von Expert*innen, die dabei helfen können, Erkenntnisse zu gewinnen, wie wir alle in Zukunft mit KI-Systemen umgehen könnten, so Short. Doch heute werden Menschen mit Behinderungen in Diskussionen über KI oft gar nicht einbezogen. Dieser fehlende Einbezug ist einerseits wegen der oben genannten Risiken problematisch, andererseits führt er aber auch dazu, dass unnötige oder ungeeignete Anwendungen entwickelt werden, die nicht den Bedürfnissen entsprechen. Wenn wir wollen, dass KI-Systeme tatsächlich den Menschen mit Behinderungen zugutekommen, müssen diese an der Entwicklung und Nutzung dieser Systeme beteiligt sein. Wir müssen sicherstellen, dass KI-Technologien auf eine inklusive Weise entwickelt werden, die die Besonderheiten und spezifischen Bedürfnisse von Menschen mit Behinderungen berücksichtigt, damit sie ihnen einen echten Nutzen bringen können.
Regulierung von KI in der Schweiz
Die Schweiz hat den Regulierungsbedarf in Bezug auf KI anerkannt. Der Bundesrat hat am 12. Februar 2025 einen Grundsatzentscheid zu Regulierung von KI getroffen. Er anerkennt, dass KI zum Schutz der Grundrechte reguliert werden muss und strebt etwa an, die KI-Konvention des Europarates zu ratifizieren. Dies ist ein wichtiges Signal, dass Menschenrechte, Demokratie und Rechtsstaatlichkeit im Umgang mit KI geschützt und gefördert werden müssen. Allerdings erscheinen die Pläne des Bundesrates noch zaghaft, nicht umfassend und wenig weitsichtig. Die ersten Massnahmen sind erst für Ende 2026 geplant.