Einfach erklärt

Zeige dein Gesicht und KI sagt, wer du bist

Mit biometrischen Erkennungstechnologien lassen sich Menschen identifizieren und überwachen. Sie sollen für mehr Sicherheit sorgen, gefährden aber die Grundrechte, diskriminieren und können sogar zu Massenüberwachung führen.

Biometrische Erkennungssysteme beobachten und verfolgen Menschen mithilfe ihrer biologischen Merkmale und verarbeiten die daraus resultierenden Daten. Diese messbaren biologischen Merkmale können die Gesichtszüge, der Gang, die Stimme oder die Iris sein. Die Erkennungssysteme kommen am Arbeitsplatz, bei Prüfungen («Proctoring»), bei der Strafverfolgung oder im öffentlich zugänglichen Raum (zum Beispiel in Supermärkten, an Bahnhöfen oder auf öffentlichen Plätzen) zum Einsatz.

Wenn im öffentlichen Raum die Gesichter von Gefilmten mit Bildern aus einer Datenbank abgeglichen werden, identifizieren KI-Systeme Individuen aus einer Masse heraus. Polizeibehörden, die solche Systeme einsetzen, wissen meistens nicht, ob eine bestimmte gesuchte Person tatsächlich vor Ort ist. Grundsätzlich werden dabei nicht nur biometrische Daten einzelner verdächtiger Personen abgeglichen, sondern die aller Personen, die vor Ort sind oder waren – also auch die Daten von strafrechtlich völlig unbeteiligten Personen.

Massnahmen beim polizeilichen und juristischen Verfolgen von Straftaten und generell beim Schutz der öffentlichen Sicherheit müssen aber verhältnismässig sein. Das Einschränken von Grundrechten ist nur zu rechtfertigen, wenn eine gesetzliche Grundlage dafür besteht und damit ein übergeordnetes Ziel im öffentlichen Interesse verfolgt wird. Der Kern der Grundrechte muss ausserdem unberührt bleiben.

Technische Systeme zur Überwachung und biometrischen Identifikation sind grundsätzlich darauf angelegt, Daten von unbegrenzt vielen Menschen zu verarbeiten und mit Datenbanken abzugleichen. Aus diesem Grund läuft ihr Einsatz in öffentlich zugänglichen Räumen auf eine Massenüberwachung hinaus.

Biometrische Erkennungssysteme werden heute im Eilverfahren in ganz Europa und darüber hinaus getestet und eingesetzt. Sie sind in Stadien, Flughäfen, Spielcasinos und Schulen zu finden. In der Schweiz werden sie unter anderem von einigen Kantonspolizeien zu Strafverfolgungszwecken eingesetzt, so etwa in den Kantonen Aargau, Neuenburg, St. Gallen und Waadt. Das Bundesamt für Polizei (Fedpol) plant die Einführung eines Gesichtserkennungssystems ab 2026.

Der Vorgang des Erkennens kann nicht nur live und vor Ort, sondern auch aus der Ferne und nachträglich erfolgen. Der Abgleich mit den Datenbanken erfolgt dann nicht in Echtzeit, sondern zeitversetzt mittels gespeicherter Videoaufnahmen. Dadurch ist für Überwachte schwer einzuschätzen, wann genau sie tatsächlich überwacht werden. Viele moderne Kameras haben schon eine entsprechende Funktion.


Im Zusammenhang mit biometrischer Erkennung wird oft von «Gesichtserkennung» gesprochen. Das Wort wird inzwischen als Synonym für «biometrische Fernidentifizierung» verwendet. Aber was bedeuten «Identifizierung», «Echtzeit», «nachträglich» und «Fern-» eigentlich?

Identifizierung und Authentifizierung

Biometrische Fernidentifizierung ist zu unterscheiden von der biometrischen Verifizierung. Bei KI-gestützten Verifizierungsverfahren entsperren Personen zum Beispiel ihre Telefone mit ihrem Fingerabdruck. Dabei findet keine massenhafte Datenerfassung und auch kein Abgleich mit einer Datenbank statt. Die Nutzer*innen entscheiden sich selbst für das jeweilige Verfahren und die Daten bleiben auf dem Gerät.

Echtzeit- und nachträgliche Identifizierung

Die biometrische Datenverarbeitung geschieht entweder in «Echtzeit» (die Datenanalyse erfolgt live, während die Daten erfasst werden) oder «nachträglich», dabei werden die erfassten Daten irgendwann später ausgewertet. Nur was heisst «später» eigentlich genau? Nach einer Minute oder nach einem Tag? Da dafür keine brauchbare Definition existiert, kann niemand den Unterschied zur Echtzeit-Analyse erklären. 

In manchen Fällen werden die Grundrechte bei einer nachträglichen Verarbeitung besonders gefährdet. Regierungen oder Behörden wie die Polizei können mit sensiblen persönlichen Daten nachverfolgen, wo sich Personen aufgehalten, was sie getan oder auch mit wem sie sich getroffen haben − über Wochen, Monate oder Jahre hinweg. Das könnte zum Beispiel Quellen von Journalist*innen davon abhalten, ihnen wichtige Informationen zu geben, da sie nicht mehr sicher sein können, dabei anonym zu bleiben.

Fernidentifizierung

Worauf bezieht sich die «Ferne» in «Fernidentifizierung»?

Es wäre ein Fall von Fernidentifizierung, wenn zum Beispiel viele Menschen in einem Flughafen von überall installierten Kameras aufgenommen werden, um ihre biometrischen Daten zu verarbeiten. Der Datenabgleich findet ohne aktive Mitwirkung der aufgezeichneten Menschen fernab des Ortes statt, wo die Daten erhoben wurden. Eine aktive Mitwirkung besteht zum Beispiel, wenn Menschen ihren Finger auf eine Fläche legen, um einen Fingerabdruck erstellen zu lassen. Wie weit ein Ort entfernt sein muss, um als «fern» zu gelten, ist nicht definiert.

Im Wesentlichen besteht der Unterschied also in dieser räumlichen Entfernung zwischen Datenerhebung und Datenverarbeitung und dem aktiven Einbeziehen der Menschen, deren biometrische Daten erfasst und verarbeitet werden.


Sichere Technik in einer unsicheren Welt?

Sicherheitsbehörden und Anbieter von Sicherheitssystemen preisen Gesichtserkennung als innovative und zuverlässige Methode zur verbesserten Strafverfolgung an. Nur wird das grundsätzlich legitime Bedürfnis nach gesellschaftlicher Sicherheit problematisch, wenn es dazu führt, dass Grundrechte ausgehöhlt werden.

Wenn Menschen im öffentlichen Raum jederzeit identifiziert oder überwacht werden können, verletzt dies nicht nur ihr Recht auf Privatsphäre. Es hat auch eine abschreckende Wirkung: Sie könnten dadurch abgehalten werden, andere Grundrechte wie die Meinungsäusserungs- oder Versammlungsfreiheit wahrzunehmen, also an Demonstrationen teilzunehmen oder bestimmte Lokale aufzusuchen, die zum Beispiel Hinweise auf ihre politische Ausrichtung oder sexuelle Orientierung geben könnten. Da biometrische Merkmale zum Körper gehören, können sie in der Öffentlichkeit nur mit einigem Aufwand ausgeblendet werden. In den USA haben Demonstrierende auf den Universitätsgeländen ihre Gesichter und Körper verhüllt, damit Systeme zur Gesichts- und Gangerkennung keine verwertbaren Daten von ihnen erhalten.

Die Erfahrung lehrt, dass gerade repressive Regierungen auf diesen Effekt setzen, wie es auch in Argentinien geschehen ist. Dort drohte die Regierung zwei Tage vor einer Grossdemonstration, ein Gesichtserkennungssystem einzusetzen, um Menschen zu identifizieren und anschliessend ihre Sozialleistungen zu kürzen. Infolgedessen gingen nur einige wenige Menschen auf die Strasse. Die Regierung hat also die Bevölkerung erfolgreich eingeschüchtert und sie davon abgehalten, öffentlich gegen ihre Politik zu protestieren. 

Solche Folgen biometrischer Massenüberwachung treffen typischerweise besonders stark ohnehin schon benachteiligte Personen und Gruppen sowie politische Aktivist*innen. In Russland verhaftete die Polizei Menschen, die an der Beerdigung des Dissidenten Alexej Nawalny teilgenommen hatten. Die Personen wurden identifiziert, indem eine Gesichtserkennung-Software Aufnahmen der Trauerfeier analysierte, die auf Social Media kursierten oder von Überwachungskameras stammten.

Technologische Diskriminierung

Beim Einsatz von biometrischen Überwachungssystemen werden Grundrechte oft ohne Rechtsgrundlage und unverhältnismässig eingeschränkt, da die Systeme unsere Freiheit gefährden, ohne wesentlich zu einer grösseren Sicherheit beizutragen. Die Systeme funktionieren nämlich nicht im Ansatz so gut, wie es die Anbieter uns weissmachen wollen. Immer wieder halten sie Menschen für gefährlich, die es nicht sind.

In Deutschland wurde bei einem Test am Berliner Bahnhof Südkreuz ca. jeder 200. Mensch fälschlich als gesuchte Person eingestuft, was 600 täglichen Falschmeldungen entspricht. Diese ungerechtfertigt verdächtigten Menschen werden unangenehmen Kontrollen ausgesetzt. Die Polizei hätte durch die Fehlalarme dauerhaft einen erheblichen Mehraufwand. Durch diesen zusätzlichen Aufwand würden ihr an anderer Stelle Ressourcen fehlen.

Gesichtserkennungstechnik identifiziert ausserdem dunkelhäutige und weibliche Gesichter tendenziell schlechter. Das führt dazu, dass diese Menschen öfter falsch als verdächtig oder gesucht gemeldet werden. Für sie kann das gravierende Folgen haben: ungerechtfertigte Kontrollen oder sogar Festnahmen.

Die Daten, mit denen die Systeme trainiert wurden, sind eine Ursache für diese Diskriminierung von dunkelhäutigen Menschen und Frauen. Wenn die Trainingsdaten nicht repräsentativ sind bzw. überproportional Daten von Weissen Menschen und Männern enthalten, erkennen die Systeme Schwarze Frauen schlechter. Dadurch erhöht sich die Wahrscheinlichkeit von falschen Identifizierungen, wie etliche Fälle zeigen. Aber selbst ein System mit repräsentativen Daten könnte diskriminierend eingesetzt werden.

2018 wurde in Detroit ein Mann fälschlicherweise von einer Gesichtserkennung-Software identifiziert und deswegen von der Polizei des Ladendiebstahls beschuldigt. Die Stadt erklärte sich bereit, dem Mann Schadenersatz zu zahlen, und überprüfte, wie ihre Polizei die Technologie einsetzt. Sie kam zum Schluss, dass keine Verhaftung mehr nur auf der Grundlage der Gesichtserkennung erfolgen darf. Alte Fälle sollten nachgeprüft werden. In der gleiche Stadt wurde in 2023 eine hochschwangere Frau verhaftet, nachdem ein Programm zur Gesichtserkennung sie als verdächtig gemeldet hatte. Alle bisher bekannten Verhaftungen nach solchen Falschmeldungen betrafen Schwarze.

Die Polizei in New Orleans hat seit Oktober 2022 15-mal Gesichtserkennungstechnik eingesetzt. Bis auf eine Ausnahme sollten damit Schwarze Verdächtige identifiziert werden. In nur drei Fällen führte der Einsatz der Technik zu Fahndungserfolgen.

Im Vereinigten Königreich identifizierte ein Supermarkt-Überwachungssystem eine Kundin mit Gesichtserkennung fälschlicherweise als bekannte Ladendiebin. Sie wurde hinausbegleitet und aufgefordert, die Filialen der Supermarkt-Kette in Zukunft nicht mehr zu betreten. Der Anbieter der Technologie räumte später einen Fehler ein. Viele Händler im Vereinten Königreich haben dieses System in ihren Geschäften installiert.

Jetzt oder später? Überwachung durch die Hintertür

In der Schweiz gibt es kein explizites Verbot von biometrischer Erkennung. Im revidierten Schweizer Datenschutzgesetz (DSG), das im September 2023 in Kraft getreten ist, gelten biometrische Daten als besonders schützenswert, sofern sie eine natürliche Person eindeutig identifizieren. Für die Bearbeitung solcher Daten – beispielsweise durch biometrische Erkennungssysteme – gibt es keine umfassende Erlaubnis: Eine gesetzliche Grundlage (in einem Gesetz im formellen Sinn) wäre dazu erforderlich. Das DSG gilt aber nur für Bundesbehörden und private Akteure, nicht für die Kantone. Obwohl gemäss führenden Jurist*innen (2023 Simmler, 2022 Braun Binder, Kunz & Obrecht) umstritten ist, ob ihre existierenden Rechtsgrundlagen dafür ausreichen, setzen einige Kantone beispielsweise Gesichtserkennungssysteme bereits im Strafverfolgungskontext ein.

Eine Verarbeitung besonders schützenswerter Daten durch biometrische Erkennungssysteme gilt als schwerwiegender Eingriff in das Recht auf informationelle Selbstbestimmung (Art. 13 Abs. 2 BV), weshalb eine gesetzliche Grundlage in einem Gesetz im formellen Sinn erforderlich ist. Im Falle der automatisierten Fahrzeugfahndung wurde dies im Oktober 2024 vom Bundesgericht bestätigt (in seinem Urteil verweist das Bundesgericht unter anderem auf ein von AlgorithmWatch CH erarbeitetes Positionspapier hinsichtlich des Schutzes vor algorithmischer Diskriminierung). Ein Eingriff in die Grundrechte durch Bundesbehörden oder kantonale Behörden kann nur dann gerechtfertigt sein, wenn er auf einer gesetzlichen Grundlage beruht, verhältnismässig ist, durch ein hinreichendes öffentliches Interesse gerechtfertigt ist und den Kern der Grundrechte unberührt lässt (Art. 36 BV). Der Datenschutz und die informationelle Selbstbestimmung bieten also einen gewissen Schutz, aber in der Praxis zeigt sich, dass er nicht ausreicht – denn die Systeme kommen trotzdem zum Einsatz. Mehrere Schweizer Städte und Kantone haben bereits die Verwendung von biometrischen Erkennungssystemen im öffentlichen Raum verboten, insbesondere dank der Sensibilisierungsmassnahmen des Bündnisses «Gesichtserkennung stoppen».

In der EU verbietet die finale Fassung der KI-Verordnung (AI Act) biometrische Überwachung im öffentlichen Raum zwar grundsätzlich für den polizeilichen Einsatz und die Strafverfolgung. Sie lässt aber viele Ausnahmen zu und lässt Strafverfolgungs-, Sicherheits- und Migrationsbehörden grosse Freiräume. Manche Bereiche fallen ganz aus dem Geltungsrahmen der KI-Verordnung: das Militär, die Verteidigung und die nationale Sicherheit. Diese weitreichenden Ausnahmen für die Strafverfolgung und für Sicherheitsbehörden laden europaweit zum Ausbau öffentlicher Überwachung ein.

Auch andere biometrische Systeme, die zum Beispiel Menschen anhand ihrer biometrischen Daten in Kategorien wie Geschlecht oder Alter einteilen oder versprechen, die Emotionen von Personen zu erkennen, werden in der Schweiz zunehmend eingesetzt. So planten in Jahr 2023 die SBB eine Überwachungsinfrastruktur an Bahnhöfen, die unter anderem eine – wahrscheinlich auf biometrischen Daten basierende – Kategorisierung ermöglichen sollte, um Alter, Grösse und Geschlecht der Reisenden zu analysieren. Der starke Widerstand der Zivilgesellschaft hat die SBB dazu veranlasst, auf diesen Aspekt des Projekts zu verzichten. Weitere Beispiele für den Einsatz der Systeme gibt es aus Supermärkten, Stadien oder online Gesichtsdatenbanken. So soll Coop in einigen ihrer Geschäfte ein KI-gestütztes Videoüberwachungssystem einsetzen, dass Diebstähle erkennen soll. Die Software soll verdächtiges Verhalten von Kund*innen erkennen. Die Definition eines «verdächtigen Verhaltens» ist nicht bekannt.

AlgorithmNews CH - abonniere jetzt unseren Newsletter!