Warum wir Gesichtserkennung nicht wollen können

Wenn der öffentliche Raum mit Hilfe von Algorithmen überwacht wird, ist das eine Gefahr für die Grundrechte. Und für die Demokratie. Ein Meinungsbeitrag von Angela Müller.
Lucas Santos | Unsplash

Dieser Kommentar erschien erstmals als Gastbeitrag im Schwerpunkt zu Gesichtserkennung des «Schweizer Monat», Ausgabe 1096 vom Mai 2022.

An einem Januarmorgen 2020 wird Robert Williams vor seinem Haus in den Suburbs von Detroit überraschend von der Polizei verhaftet. Er soll in einem Geschäft in der Innenstadt fünf Uhren entwendet haben. Ähnlich erging es Nijer Parks und Michael Oliver: Parks warf die Polizei vor, in einer Autovermietungsstation Snacks gestohlen und einen Polizeibeamten geschlagen zu haben, Oliver soll das Smartphone einer Drittperson zerstört haben. In allen drei Fällen stellte sich später heraus: Die Beschuldigten haben das ihnen vorgeworfene Delikt nie begangen.

Parks, Oliver und Williams haben aber zwei weitere Dinge gemeinsam. Erstens: Bei allen entstand der Verdacht im Rahmen einer polizeilichen Auswertung von Videomaterial – das Gesichtserkennungssystem meldete jeweils einen falschen Treffer. Zweitens: Williams, Parks und Oliver haben dieselbe Hautfarbe – sie sind schwarz.

Überwachung konditioniert

Biometrische Erkennungssysteme werden heute nicht nur in den USA oder China, sondern auch in ganz Europa getestet und eingesetzt. Beachtung verdienen dabei nicht in erster Linie jene Tools, mit denen wir etwa das Smartphone entsperren, sondern jene, die uns mittels unseres Gesichts, unserer Stimme oder unseres Ganges aus einer Masse von Individuen heraus identifizieren können, indem sie auf eine Datenbank zurückgreifen. Wenn auch noch viel Intransparenz dazu herrscht, wo, von wem und wozu biometrische Erkennungssysteme eingesetzt werden, häufen sich die Berichte: Die Stadt Berlin experimentierte mit Gesichtserkennungstools in Bahnhöfen, Nizza ganz generell im öffentlichen Raum. Pendlerinnen und Pendler der Moskauer Metro können seit letztem Jahr die biometrischen Daten ihres Gesichts mit ihrer Kreditkarte verknüpfen – sobald registriert, reicht der Gesichtsscan für den Kauf einer Fahrkarte. In Schottland haben Kinder in Schulmensen mittels Gesichtsscan ihr Mittagessen beglichen, bevor das Projekt unter massivem öffentlichem Druck gestoppt wurde. In der Schweiz liebäugeln Fussballclubs und Supermärkte mit entsprechenden Tools – während kantonale Polizeibehörden, etwa in Aargau, Neuenburg, St. Gallen und der Waadt, sie bereits einsetzen.

Für viele hört sich das erst mal gut an: Warum nicht die technologischen Werkzeuge nutzen, die uns heute zur Verfügung stehen, um möglichst effizient auf Verbrecherjagd zu gehen – oder bequem den Lunch abzurechnen? Einerseits zeigen die Fälle von Williams, Parks und Oliver: Gesichtserkennungssysteme können oft diskriminierend wirken, da sie Menschen dunkler Hautfarbe oder Frauen tendenziell weniger gut erkennen. Dies erhöht bei diesen Menschen die Möglichkeit eines falsch-positiven Treffers – der, zum Beispiel im Kontext der Strafverfolgung, relevante Auswirkungen auf ihr Leben haben kann. Der Grund für diese verzerrte Wirkung der Algorithmen liegt in Verzerrungen (sogenannte «Biases») ihrer Trainingsdaten: Die Systeme werden nicht mit genügend repräsentativen Daten trainiert, sondern mit überproportional vielen Bildern von Männern weisser Hautfarbe. Dieses Problem ist heute relativ breit anerkannt, die Trainingsdatenbanken werden diverser, die Systeme laufend verbessert und damit genauer. Doch genau damit werden sie auch zu einem mächtigeren Überwachungsinstrument.

Denn anderseits – unabhängig davon, wie gut oder schlecht die Technologie funktioniert: Wird die Gesichtserkennung im öffentlichen Raum eingesetzt, so birgt sie ganz grundsätzliche Gefahren. Wenn nämlich auf öffentlichen Plätzen, in Bahnhöfen, Stadien oder Einkaufszentren die Infrastruktur vorhanden ist, um Personen jederzeit automatisiert zu identifizieren, verfolgen und überwachen, wenn also die Videoüberwachung mit Algorithmen zur biometrischen Erkennung gekoppelt ist, betrifft das uns alle: Es verletzt nicht nur unser Recht auf Privatsphäre, sondern kann uns auch davon abschrecken, andere Grundrechte wahrzunehmen, wie etwa die Meinungsäusserungs- oder Versammlungsfreiheit. Das reine Wissen, dass ich potentiell erkannt werden könnte, wenn ich mich im öffentlichen Raum bewege, wird mich möglicherweise davon abschrecken, an einer Demonstration teilzunehmen oder Orte aufzusuchen, die Hinweise auf meine sexuelle Orientierung, meine politische Gesinnung oder meine Religion geben könnten. Für Einzelpersonen ist zudem nicht ersichtlich, wann und wozu die Technologie tatsächlich zum Einsatz kommt. Die reine Möglichkeit, dass wir jederzeit ohne unser Wissen, unter Umständen auch nachträglich, identifiziert werden könnten, kann unsere Aktivitäten und Bewegungen im öffentlichen Raum konditionieren – ob nun in einer bestimmten Situation eine tatsächliche Überwachung erfolgt oder nicht.

Verhältnismässigkeit?

Doch handelt es sich dabei nicht um eine Massnahme, die wir im Interesse der Verbrechensbekämpfung und der öffentlichen Sicherheit in Kauf nehmen müssen? Dass Grundrechte nicht eingeschränkt werden dürfen, um das Mittagessen rascher zu bezahlen, scheint einleuchtend. Wie steht es aber mit der öffentlichen Sicherheit?

Das Bedürfnis nach Sicherheit ist verständlich. Allerdings wird jeglichem staatlichem Handeln, sei es in der Strafverfolgung, der Justiz oder anderen Bereichen, grundrechtliche Schranken gesetzt – und zwar aus guten Gründen. Grundrechte können zwar unter bestimmten Voraussetzungen und bis zu einem gewissen Grad eingeschränkt werden, dies muss jedoch stets verhältnismässig geschehen. Im öffentlich zugänglichen Raum eingesetzt, schaffen Gesichtserkennungssysteme jedoch die Voraussetzungen für eine biometrische Massenüberwachung – und diese ist im Kern nicht mit zentralen Rechten vereinbar, die in der Verfassung und in internationalen Menschenrechtsverträgen garantiert sind, wie dem Recht auf Privatsphäre, auf Meinungsäusserungs- oder Versammlungsfreiheit. Dazu kommt: Typischerweise sind bereits benachteiligte oder von Diskriminierung betroffene Menschen vermehrt Überwachungsmassnahmen ausgesetzt – etwa werden diese in Nachbarschaften mit einer hohen Verbrechensrate öfters eingesetzt. Deren Bewohnerinnen und Bewohner wären entsprechend auch verstärkt von den Folgen biometrischer Überwachung betroffen – Sans Papiers könnten sich etwa zunehmend aus dem öffentlichen Raum zurückziehen. Dasselbe gilt für Menschen, die sich politisch exponieren.

Der öffentliche Raum und unsere geschützte Bewegungsfreiheit darin sind aber nicht nur für uns als Individuen zentral, sondern auch für das Funktionieren einer gesunden Demokratie, für die Teilnahme am öffentlichen Leben und Diskurs. Und das betrifft nicht nur die Teilnahme an Kundgebungen: Auch sind etwa Journalistinnen und Journalisten darauf angewiesen, ihre Informanten unerkannt zu treffen. Biometrische Massenüberwachung geht damit nicht nur über eine verhältnismässige und rechtfertigbare Einschränkung der Grundrechte hinaus, sondern beschädigt auch die demokratische Öffentlichkeit als Ganzes.

Debatte ist notwendig

Vor diesem Hintergrund ist auch die Zivilgesellschaft aktiv geworden. Auf europäischer Ebene wirbt die Kampagne Reclaim Your Face für ein EU-weites Verbot, international fordern über 200 Organisationen ein globales Verbot. In der Schweiz haben die drei NGO AlgorithmWatch Schweiz, Amnesty International und die Digitale Gesellschaft die Kampagne «Gesichtserkennung stoppen» lanciert, um die Rechtslage zu klären und ein Verbot von biometrischer Erkennung im öffentlich zugänglichen Raum zu erwirken – unabhängig davon, ob diese in Echtzeit oder nachträglich vorgenommen wird.7 Eine entsprechende Petition wurde von über 10 000 Personen unterzeichnet.

Der Handlungsbedarf wurde auch in der Politik erkannt: Die Kampagne wird von Politikerinnen und Politikern von links bis rechts unterstützt. Seit ihrem Beginn wurden etwa in Zürich, Lausanne oder Basel Vorstösse für ein solches Verbot eingereicht, weitere sollen folgen.

Derzeit ist es in der Schweiz zwar nicht per se erlaubt, Gesichtserkennung zu verwenden: Es braucht dafür eine gesetzliche Grundlage. Einerseits ist aber beispielsweise beim Einsatz durch Kantonspolizeien umstritten,ob die von ihnen herangezogene gesetzliche Grundlage ausreicht. Andererseits geht es darum, sich dagegen zu wehren, dass gesetzliche Grundlagen ohne entsprechende öffentliche Debatte eingeführt werden – etwa via ein Pilotprojekt, wo die gesetzliche Verankerung anschliessend oft weniger transparent geschieht, oder indem die Verwendungszwecke der Technologie schrittweise ausgedehnt würden und sie so auch für weniger gravierende Verbrechen zum Einsatz käme. Die Fälle von Williams, Parks und Oliver illustrieren die Folgen, die das haben kann.

Vor diesem Hintergrund zielt die Kampagne «Gesichtserkennung stoppen» insbesondere auch darauf ab, die Öffentlichkeit für die Wichtigkeit des Themas zu sensibilisieren und die gesellschaftliche Debatte anzuregen. Wir müssen alle imstande sein, als Einzelpersonen und als Gesell schaft, vom Nutzen neuer Technologien zu profitieren. Das bedingt aber, dass wir alle gemeinsam definieren, wo wir Technologie einsetzen wollen, welche Rahmenbedingungen es dafür braucht – und wo wir rote Linien ziehen wollen, wenn die Auswirkungen auf Mensch und Gesellschaft nicht verhältnismässig sind. Mit Gesichtserkennung im öffentlichen Raum würden Voraussetzungen geschaffen für etwas, was wir nicht wollen können – weder für uns selbst noch für unsere Demokratie.

Quelle: Schweizer Monat, Mai 2022

Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zu biometrischen Erkennungssystemen.

Dr. iur. des. Angela Müller

Head of Policy & Advocacy

Foto: David Bächtold

Als Head of Policy & Advocacy leitet Angela die Aktivitäten des Policy & Advocacy Teams von AlgorithmWatch und AlgorithmWatch Schweiz auf nationaler und internationaler Ebene. In der Schweiz ist sie zuständig für alle Politikbereiche, auf internationaler Ebene gehören zudem horizontale Regulierungen im Rahmen des Europarats (CAI) und der EU (AI Act) zu ihren Schwerpunkten. Sie hat einen PhD (Dr.des.) in Rechtswissenschaft von der Universität Zürich, wo sie zu Menschenrechten im Zeitalter von Globalisierung und neuen Technologien geforscht hat, sowie einen Master in Political and Economic Philosophy. An der Columbia University New York und der Hebrew University Jerusalem war sie Visiting Researcher. Vor ihrer Tätigkeit bei AlgorithmWatch arbeitete sie bei einem zivilgesellschaftlichen Think Tank, an der Universität Zürich, für eine Innovationsplattform sowie beim Schweizerischen Aussendepartement EDA. Angela ist Mitglied der Digital Society Initiative der Universität Zürich und Vize-Präsidentin der Gesellschaft Schweiz-UNO.