Interview in der NZZ am Sonntag: «Der Eingriff in das Grundrecht passiert unbemerkt»

Für Angela Müller, die Leiterin von Algorithm Watch in der Schweiz, gehören die Systeme zur Gesichtserkennung im öffentlichen Raum verboten.

Foto von Ellen Jenni auf Unsplash

Angela Müller
Dr. Angela Müller
Geschäftsleiterin AlgorithmWatch CH | Head of Policy & Advocacy

Dieses Interview von Thomas Isler mit Angela Müller, der Leiterin von AlgorithmWatch CH, erschien am 19. Februar zuerst in der NZZ am Sonntag.

NZZ Magazin: Die Pläne der SBB, mit Gesichtserkennungssoftware die Kundenströme an Bahnhöfen zu überwachen und zu analysieren, haben diese Woche zu reden gegeben. Auch Private können längst Software nutzen, um jedes x-beliebige Gesicht zu identifizieren. Ist es heute so, als ob wir in der Öffentlichkeit alle ein Namensschild trügen?
Angela Müller: Nein, so weit sind wir nicht. Ich würde auch nicht behaupten, es müssten sich alle Leute vermummen, wenn sie ihre Anonymität im öffentlichen Raum bewahren wollten. Aber es gibt Entwicklungen, die mit Tempo in die Richtung gehen, uns flächendeckender zu überwachen. Darum setzen wir uns dafür ein, die Grundrechte im öffentlichen Raum zu schützen. Ohne Grundrechte keine Demokratie.

Schon heute gibt es für wenig Geld auch für Private zugängliche Gesichtserkennungssoftware. Sie gleicht das Foto eines Menschen mit einem riesigen, aus dem Internet gewonnenen Datensatz ab und kann so irgendein Gesicht schnell und recht zuverlässig identifizieren.
Solche Apps gibt es, das stimmt. Aber zuallererst ist ihre Treffsicherheit umstritten. Denn sie hängt auch davon ab, wie die Software trainiert wurde. Vereinfacht gesagt: Übt sie mit vielen weissen Männergesichtern, erkennt sie schwarze Frauen halt weniger gut. Auch im Ukraine-Krieg setzen verschiedene Seiten solche Software ein, um Gesichter aus Fotos und Videos zu identifizieren und die Menschen an den Pranger zu stellen. Die Resultate stimmen längst nicht immer – haben aber ganz reale und oft drastische Auswirkungen.

«Gesichtserkennungssoftware kann uns davon abhalten, an einer Demonstration teilzunehmen, eine religiöse Stätte aufzusuchen oder in ein Lokal zu gehen, das etwas über unsere sexuellen Präferenzen verrät – also davon, für die Demokratie zentrale Grundrechte wahrzunehmen.»

Verschiedene Zeitungen haben die Software schon getestet. Selbst Fotos mit Sonnenbrillen oder Hygienemasken lieferten richtige Treffer.
Natürlich, und die Systeme werden laufend besser. Der Schaden, den sie anrichten, ist aber so oder so beträchtlich. So wurden schon Darstellerinnen aus Pornos identifiziert und dann gestalkt. Oder es gab Fälle von Frauen, die vor häuslicher Gewalt geflüchtet waren und später per Gesichtserkennungssoftware aufgespürt wurden.

Wie sieht es rechtlich aus? Wenn ich ein Foto von der Frau da drüben machen würde, um sie mit meiner App zu identifizieren – wäre das legal?
Nein, ohne ihre Einwilligung wäre das meines Erachtens illegal. Schon heute. Und mit dem neuen Datenschutzgesetz ab September erst recht.

Aber die Chance, dass ich deswegen bestraft würde, gehen gegen null, oder?
Das ist wohl so, es stellt sich die Frage, ob und wie Gesetze durchgesetzt werden können. Unabhängig von Datenschutz und Privatsphäre existieren aber auch weitere verfassungsmässige Grundrechte, die hier enge Grenzen setzen. Gesichtserkennungssoftware kann uns etwa davon abhalten, an einer Demonstration teilzunehmen, eine religiöse Stätte aufzusuchen oder in ein Lokal zu gehen, das etwas über unsere sexuellen Präferenzen verrät – also davon, für die Demokratie zentrale Grundrechte wahrzunehmen. Die Software kann ja nicht nur von Einzelpersonen, sondern auch vom Staat oder von privaten Konzernen genutzt werden. Die Frage ist darum: Was macht diese Technik mit einer demokratisch organisierten Gesellschaft?

Gehen wir der Reihe nach. Setzen staatliche Organe in der Schweiz, etwa die Strafverfolgungsbehörden, solche Software ein?
Ja, es gibt kantonale Polizeikorps, die Gesichtserkennungssoftware einsetzen, etwa in St. Gallen. Unseres Wissens erfolgt dies derzeit nachträglich. Das heisst, es gibt Videoaufnahmen einer Straftat, und man versucht dann, den Täter oder die Täterin per Software zu identifizieren.

«Die Frage ist: Welche Methoden können wir als Gesellschaft akzeptieren? Und welche nicht?»

Ist das legal?
Klar ist, dass es für einen solchen Einsatz eine Gesetzesgrundlage braucht. Ob die dafür angeführten kantonalen Regeln ausreichen, ist aber in juristischen Kreisen umstritten. Wir haben deshalb mit der Digitalen Gesellschaft Schweiz und Amnesty International Schweiz eine Kampagne gestartet, um eine Debatte zu lancieren. Die Städte Zürich und St. Gallen haben inzwischen bereits ein Verbot der Gesichtserkennung durch ihre Behörden im öffentlichen Raum beschlossen. Die Frage ist: Welche Methoden können wir als Gesellschaft akzeptieren? Und welche nicht? Das Perfide an diesen Systemen ist ja: Der Grundrechtseingriff geschieht unbemerkt und aus der Ferne. Man bemerkt ihn nicht notwendigerweise. Es ist damit auch nicht dasselbe, wie wenn ich irgendwo meine Fingerabdrücke geben muss.

Was ist denn der Unterschied zwischen einer Software und einem Polizeifahnder, der etwa in einem Stadion vor einem Monitor sitzt und schaut, ob er einen Verdächtigen entdeckt?
Übernimmt eine automatisierte Software die Gesichtserkennung, so kommt es zur Bearbeitung besonders schützenswerter Daten aller Personen im Stadion. Das kann, wie erwähnt, unser aller Verhalten massiv beeinflussen und ist ein unverhältnismässiger Eingriff in unsere Grundrechte.

Wie sieht es beim Einsatz solcher Software durch eine private Firma aus? Was, wenn ich beim Betreten eines Ladens identifiziert werde, damit man mich als Kunden gezielter ansprechen kann?
Ein Privatunternehmen brauchte für einen solchen Einsatz grundsätzlich eine explizite Einwilligung der Betroffenen – oder ein überwiegendes privates Interesse, was im öffentlich zugänglichen Raum aber kaum geltend zu machen ist. Das ist also nicht so einfach möglich. Was sich aber zeigt: Es gibt heute mehr und mehr solcher und ähnlicher Systeme, die etwa an Ihrem Gesicht Ihr Geschlecht oder Ihr Alter abzulesen versuchen, um Ihnen personalisierte Werbung anzuzeigen oder Ihr Einkaufserlebnis zu optimieren. Also genau das, was das Überwachungsprojekt der SBB in den Bahnhöfen will.

Wenn ich nach Kaffeemaschinen google, bekomme ich fortan beim Surfen auch überall Werbung für Kaffeemaschinen angezeigt. Die Software erkennt mich als Kaffeemaschinen-Suchenden. Die allermeisten Menschen scheint das aber nicht zu stören.
Für uns Einzelne ist es ja schwierig zu verstehen, was genau läuft. Aber – und das ist mir sehr wichtig – wir können die Verantwortung auch nicht auf die Schultern der Individuen abwälzen. Aufseiten der Unternehmen herrscht eine riesige Intransparenz, wo Algorithmen eingesetzt werden und wie sie funktionieren. Und zumindest in einigen Fällen ist diese Intransparenz auch gewollt. Wir von Algorithm Watch fordern daher zunächst mehr Transparenz und klare gesetzliche Regelungen. Wir müssen dazu nicht notwendigerweise immer die Codes kennen, aber wir müssen die Fakten kennen. Um als demokratische Gesellschaft darüber diskutieren und entscheiden zu können, wo und wozu welche Systeme eingesetzt werden.

Was wäre für Sie eine rote Linie bei der Identifizierung?
Rote Linien sind immer das Mittel letzter Wahl. Wir finden aber, dass beim Einsatz von Gesichtserkennung im öffentlichen Raum eine gezogen werden sollte – hier braucht es ein Verbot. Auch bei Systemen zur Emotionserkennung sollte man vorsichtig sein.

Emotionserkennung?
Es gibt Systeme, deren Anbieter zumindest vorgeben, sie könnten die Emotionen von Gesichtern ablesen – oder gar, dass sie am Gesicht die sexuelle Orientierung oder politische Präferenzen einer Person erkennen könnten.

Das klingt nach verpönter Physiognomik aus dem 18. Jahrhundert, als die Wissenschaft meinte, sie könne an der Form des Kinns Charaktereigenschaften erkennen.
Stimmt. Aber Tatsache ist: Emotionserkennung wird bereits eingesetzt, sei es durch die Analyse von Gesichtern oder von Sprache. Es gibt etwa in Indien eine Stadt, die so versucht, die Not von Frauen im öffentlichen Raum von ihren Gesichtern abzulesen, um sie vor sexueller Gewalt zu schützen.

«In Polen gab es eine Bank, die bei Angestellten mit Kundenkontakt gemessen hat, wie oft sie lächelten.»

Ein System im öffentlichen Raum, das merkt, wenn ein Gesicht Angst ausstrahlt?
Genau. Ein weiterer Ort, wo sich so ein System anböte, wären Grenzkontrollen. Da könnte es darum gehen, zu erkennen, wenn jemand nervös ist oder etwas zu verbergen versucht. Aber es gibt auch weitgehende private Nutzungen: Videogesprächsanbieter experimentieren mit Systemen, die Emotionen erkennen, um das Verkaufsgespräch per Videocall optimieren zu können. In Polen gab es eine Bank, die bei Angestellten mit Kundenkontakt gemessen hat, wie oft sie lächelten.

Kann man per Arbeitsvertrag überhaupt rechtsgültig in so etwas einwilligen?
Die Frage ist, wie man rechtliche Grundlagen in diesem Bereich durchsetzt. Und dann natürlich auch, ob die Mitarbeitenden überhaupt vom Einsatz des Systems wissen, und, wenn ja, wie sie dabei mitbestimmen können. Diese Frage stellt sich auch, wenn etwa ein Onlinehändler überwacht, wie produktiv das Logistikpersonal ist.

Ein Argument, das bei Gesichtserkennungssoftware im öffentlichen Raum immer genannt wird, ist jenes der Sicherheit. Und tatsächlich wäre es ja auch sehr nützlich, wenn die Polizei Verdächtige schnell identifizieren könnte?
Es ist eine zentrale Staatsaufgabe, die Sicherheit der Bevölkerung zu garantieren. Das ist unbestritten. Aber erhöhen Gesichtserkennungssysteme unter dem Strich tatsächlich die Sicherheit? Ausserdem sind dem Staat bei seinem Auftrag, für die Sicherheit zu sorgen, schon heute strikte Grenzen gesetzt: die Grundrechte. Strafverfolgungsbehörden dürfen im Namen der Sicherheit nicht alles machen, was denkbar ist. Sie dürfen nicht foltern, sie dürfen niemanden ohne Verdacht verhaften, sie dürfen die Verteidigungsrechte nicht ausser Kraft setzen. Oder anders gesagt: Es gibt ein Grundrecht auf Freiheit, aber es gibt kein Grundrecht auf Sicherheit. Automatisierte Gesichtserkennung im öffentlichen Raum, rein präventiv und aus der Ferne – das beschränkt und verletzt die Grundrechte so vieler Leute so massiv, dass ein Verbot angezeigt ist. Das heisst im Umkehrschluss aber nicht, dass sich der Staat keine Technik zunutze machen kann. Wir sind keine Maschinenstürmerinnen und Maschinenstürmer.