
Einfach erklärt
Algorithmische Polizeiarbeit: Vorauseilende Schuldvermutung
Algorithmische Polizeiarbeit bedeutet, dass auf der Grundlage von historischen Verbrechensdaten angeblich algorithmisch vorausgesagt wird, wer in der Zukunft welche Verbrechen begehen wird. Wir erklären, warum diese Praxis oft diskriminierend, rechtlich fragwürdig und längst nicht so wirksam ist, wie ihr nachgesagt wird.

Dieser Explainer wurde mit Hilfe von Jasmin Andreatta geschrieben.
Der Begriff «vorausschauende Polizeiarbeit» («Predictive Policing») ist rechtlich nicht definiert. Er ist suggestiv, da damit implizit die Behauptung verbunden ist, dass bestimmte Technologien tatsächlich Straftaten vorhersagen können. Generell bezieht der Begriff sich auf KI-Systeme und Algorithmen, die Gebiete, Orte und Zeiten ermitteln sollen, in denen wahrscheinlich bestimmte Arten von Straftaten auftreten werden. Andererseits werden sie eingesetzt, um vorauszusagen, wer wahrscheinlich eine Straftat begehen wird. So eine personenbezogene vorausschauende Polizeiarbeit wertet enorme Datenmengen aus: frühere kriminelle Aktivitäten, aktuelle Netzwerke und Faktoren, die statistisch Straftaten begünstigen. Daraus werden dann Voraussageprofile von einzelnen Personen erstellt.
Ortsbezogene Predictive-Policing-Systeme hingegen sollen ermitteln, welche Stadtteile stärker von Kriminalität betroffen sein werden oder wo beispielsweise Wohnungseinbrüche zu erwarten sind. So wird durch die Kantonspolizei Aargau und die Stadtpolizei Zürich PRECOBS eingesetzt, um Wohnungeinbrüche vorauszusagen. Die Annahmen von Predictive-Policing Systemen beruhen auf statistischen Daten, unter anderem historischen Kriminalitätsdaten. Solche algorithmisch generierte «Hotspots» für Kriminalität sind in der Regel Gebiete, in denen viele Minderheiten leben und arbeiten. Die Bevölkerung dieser Stadteile ist durch die Systeme einem besonders hohen Risiko ausgesetzt, unter Generalverdacht gestellt zu werden. Die dort lebenden Menschen können auf diese Weise kriminalisiert werden.
Vorauseilender Verdacht führt zu mehr Kriminalität
Wenn dann in diesen Nachbarschaften verstärkte Kontrollen stattfinden, werden diese aufgezeichnet, fliessen anschliessend in Kriminalitätsdaten ein und verzerren sie, da die Kontrollen nicht durch einen konkreten Verdacht begründet sind. So beeinflussen sie wiederum weitere Analysen zur Voraussage von Kriminalität. Das führt zu einer Rückkopplungsschleife: Dieselben Gebiete und Profile werden immer wieder ins Visier genommen, wodurch immer mehr Kriminalitätsdaten generiert werden. Dieses Phänomen ist in der Kriminologie als Lüchow-Dannenberg-Syndrom bekannt. Eine erhöhte Polizeipräsenz an einem Ort lässt die statistisch erfassten Vergehen und Verbrechen ansteigen. Anders gesagt: Wenn in einer Nachbarschaft mehr Polizist*innen patrouillieren, führt dies dazu, dass an diesen Orten mehr Verbrechen registriert werden – ohne dass das aber bedeutet, dass hier tatsächlich mehr Verbrechen stattfinden. Da die Polizei ihre Ressourcen verstärkt in algorithmisch markierten Gebieten einsetzt, ist zu vermuten, dass infolgedessen mehr Straftaten in anderen Gebieten unbemerkt bleiben.
Ausserdem können von der Polizei eingesetzte Analyse- und Profiling-Systeme Verdächtige mit Personen in Verbindung bringen, die nur zufällig mit ihnen Kondtakt hatten. Dadurch entwerfen die Systeme ein der Kriminalität verdächtiges Netzwerk, das so nicht existiert und Menschen beinhaltet, die keinen Anlass zu einem Verdacht gegeben haben. Die Schweiz gilt als Pionierin im Bereich der vorausschauenden Polizeiarbeit, insbesondere wenn es darum geht, vorherzusagen, wer Verbrechen begehen könnte. So werden in der Schweiz Systeme wie Octagon (Gewaltvorhersage), Odara (Vorhersage von häuslicher Gewalt), DyRiAS (Vorhersage von Gewalt in der Schule, am Arbeitsplatz oder im intimen Bereich) oder Ra-Prof (Radikalisierung Profiling) eingesetzt. Wie Jasmin Andretta in einer Recherche anmerkt, gibt es jedoch starke Unterschiede zwischen der Deutschschweiz und der Romandie. Die Systeme werden in den französischsprachigen Kantonen viel weniger genutzt.
Es fehlen öffentlich zugängliche Informationen darüber, welche Daten diese algorithmisch-automatisierten Analysesysteme verarbeiten und ob vor oder während ihrem Einsatz ihre Funktionsweise und Effektivität in unabhängigen Folgeabschätzungen und Audits geprüft wurde. Deshalb lässt sich nicht sicher sagen, wie voreingenommen diese Systeme gegen bestimmte Bevölkerungsgruppen sind. Zahlreiche Beispiele beweisen allerdings, dass solche Systeme direkt und indirekt Racial Profiling (verdachtsunabhängige Kontrollen, die vor allem auf dem Aussehen der Kontrollierten beruhen), Rassismus und andere Diskriminierungsformen begünstigen, insbesondere gegen Menschen, die als Migrant*innen wahrgenommen werden.
Was bringt das Ganze?
Es gibt keine Belege dafür, dass «vorausschauende» Systeme tatsächlich Kriminalität verringern. Manche der Untersuchungen darüber, wie oft sie einen falschen Verdacht generiert haben oder wie häufig ihnen ein möglicher berechtigter Verdacht entgangen ist, sind beunruhigend.
In Deutschland suchen Polizei-Algorithmen in den Fluggast-Datensätzen nach Mustern. Das deutsche Bundeskriminalamt liess zwischen dem 29. August 2018 und dem 31. März 2019 die automatisch generierten «Treffer» des Fluggastdaten-Systems manuell überprüfen. Nur 277 von rund 94.000 Übereinstimmungen erwiesen sich als richtig, was einer Trefferquote von 0,3 Prozent entspricht. In den USA ergab eine Analyse aus dem Jahr 2023: Weniger als 0,5 Prozent der 23.631 Kriminalitätsvoraussagen, die das Geolitica-System (ehemals PredPol) für Plainfield in New Jersey generiert hatte, stimmten mit den gemeldeten Verbrechen überein. So eine Quote deutet nicht darauf hin, dass das System effektiv funktioniert.
Das Max-Planck-Institut für ausländisches und internationales Strafrecht führte einen der wenigen unabhängigen Tests durch, um die Anwendung der Software PRECOBS zur Vorhersage von Wohnungseinbruchsdiebstählen in Deutschland zu bewerten. Die Autor*innen der Studie konnten keinen Nachweis für die Effektivität dieser Methode der vorausschauenden Polizeiarbeit erbringen. Einerseits ist die Zahl der Einbrüche seit etwa 2015 sowohl in Deutschland als auch europaweit deutlich zurückgegangen. Auf der anderen Seite ist der Einsatz von Instrumenten der vorausschauenden Polizeiarbeit üblicherweise nur ein Bestandteil einer umfassenden polizeilichen Strategie. Daher könnten auch andere Massnahmen zu einem Rückgang der Fallzahlen beigetragen haben. Bereits 2020 hat eine Recherche von AlgorithmWatch gezeigt, dass aufgrund mangelnder Transparenz die Auswirkungen von Systemen wie PRECOBS in der realen Welt nicht zufriedenstellend beurteilt werden können.
Rassistischer Teufelskreis
Diskriminierendes und rassistisches Profiling führt zu unbegründeten Kontrollen und Durchsuchungen, was Betroffene, Opferverbände, Aktivist*innen, Wissenschaftler*innen, Menschenrechtsorganisationen und internationale Organisationen seit Langem kritisieren.
Trotzdem wird diese Diskriminierung durch Polizei, Strafverfolgungsbehörden und datengestützte Systeme selten als strukturelles oder institutionelles Problem behandelt. Das Urteil des Europäischen Gerichtshofs für Menschenrechte (EGMR) Wa Baile gegen die Schweiz hat die Relevanz für die Schweiz gezeigt. Die Verknüpfung von Predictive Policing und Racial Profiling durch algorithmische Systeme wird jedoch in der Schweiz noch kaum thematisiert.
Ein Beispiel aus den USA macht deutlich, was passieren kann, wenn autonome Systeme voreilig eingesetzt werden, ohne vorab die ethischen, rechtlichen und sozialen Konsequenzen ihres Einsatzes geprüft zu haben. Der COMPAS-Algorithmus sollte voraussagen, ob Straftäter*innen rückfällig werden. Er stufte Schwarze Personen im Vergleich zu weissen Straftäter*innen häufiger als Wiederholungstäter*innen ein, was nicht der Realität entspricht. In der Schweiz kommt mit FOTRES ein (wenn auch technisch viel simpleres) System mit ähnlichem Verwendungszweck zum Einsatz, das gemäss einer Studie wissenschaftlich ungenügend geprüft ist. Seit 2018 nutzen die Justizbehörden aller Kantone der Deutschschweiz FaST (Fall-Screening-Tool) für den Risikoorientierten Sanktionenvollzug (ROS).
Solche rassistischen Vorurteile können auftreten, wenn Polizeikontakte auf Racial Profiling zurückzuführen sind und die daraus resultierenden Daten in ein KI-System für voraussagende Polizeiarbeit eingespeist werden. Die Voraussagen des Systems werden dann genauso rassistisch sein wie Racial Profiling selbst.
KI-gestützte Strafverfolgung und EU-Gesetze
In der EU ist der Einsatz von KI-Systemen in der Strafverfolgung bis zu einem gewissen Grad durch die Strafverfolgungsrichtlinie (JI-Richtlinie) geregelt. Gemäss Artikel 11 der Richtlinie muss ein Mensch die Verarbeitung personenbezogener Daten zum Erstellen von Profilen zur Strafverfolgung überprüfen, da es verboten ist, Entscheidungen ausschliesslich auf der Grundlage von automatisiert verarbeiteten Personendaten zu treffen.
Die KI-Verordnung der EU (AI Act) stellt fest, dass bestimmte von Strafverfolgungsbehörden eingesetzte KI-Systeme ein erhebliches Risiko darstellen, das zu Überwachung, Festnahmen und generell zur Verletzung von Grundrechten führen kann. Wenn die Funktionsweise dieser Systeme geheim, undurchsichtig oder nicht dokumentiert ist, kann dies das Recht auf ein faires Verfahren, wirksamen Rechtsschutz oder auch die Unschuldsvermutung unterlaufen.
Artikel 5 Absatz 1 Buchstabe d der KI-Verordnung verbietet KI-Systeme für vorausschauende Polizeiarbeit, wenn sie ausschliesslich auf Profilen natürlicher Personen oder der Bewertung ihrer Persönlichkeitsmerkmale und Eigenschaften beruht (im Gegensatz zu Voraussagen über geografische Gebiete). Der Einsatz von KI-gestützter vorausschauender Polizeiarbeit ist aber zulässig, wenn KI Polizeibeamte, die Staatsanwaltschaft oder auch Ermittler*innen dabei unterstützt, Beurteilungen abzugeben.
Viele nicht verbotene Systeme zur vorausschauenden Polizeiarbeit werden gemäss Artikel 6 Absatz 2 als KI-Systeme mit hohem Risiko eingestuft. Die KI-Verordnung stuft für Strafverfolgungsbehörden insbesondere folgende Anwendungen von KI-Systemen als hochriskant ein:
- Bewertungen, wie wahrscheinlich bestimmte Personen Opfer einer Straftat werden können,
- Bewertungen (die nicht nur auf der Grundlage einzelner Profile erfolgen), wie wahrscheinlich natürliche Personen straffällig oder wieder straffällig werden,
- die Bewertung von Persönlichkeitsmerkmalen und -eigenschaften oder eines früheren kriminellen Verhaltens von Einzelpersonen oder Gruppen,
- das Erstellen von Personenprofilen im Rahmen des Aufdeckens, der Untersuchung oder der Verfolgung von Straftaten.
Anbieter von KI-Systemen mit hohem Risiko müssen verschiedene Anforderungen erfüllen, um ihre KI-Systeme Strafverfolgungsbehörden verkaufen zu dürfen. Die Betreiber − zum Beispiel Polizeibehörden,
Grenzbehörden oder Gefängnisse − müssen ebenfalls einige Voraussetzungen erfüllen, bevor sie ein Hochrisiko-System in Betrieb nehmen, zum Beispiel müssen sie eine grundrechtliche Folgenabschätzung durchführen.
Rechtsgrundlagen für «Predictive Policing» in der Schweiz
In der Schweiz gilt, dass jedes staatliche Handeln, eine gesetzliche Grundlage haben muss, so auch im Bereich Predictive Policing. Diese finden sich zum grossen Teil in den kantonalen Polizeigesetzen. Weiter sind auch einzelne Bundesgesetze anwendbar. Monika Simmler und Simone Brunner analysierten die Polizeigesetze der Kantone Solothurn, St. Gallen und Zürich im Hinblick auf das Bedrohungsmanagement, das Teil des Predictive Policing ist. Ziel des Bedrohungsmanagments ist es, potenziell gefährliche Entwicklungen bei einer Person frühzeitig zu erkennen, um so Gewalttaten, beispielsweise im Bereich häuslicher Gewalt, zu verhindern. Dabei stellten sie fest, dass es grösstenteils noch an klaren gesetzlichen Grundlagen fehlt. Dies erhöht die Gefahr willkürlicher und damit diskriminierender Entscheidungen. In seinem Urteil vom 17. Oktober 2024 hat das Bundesgericht mehrere Bestimmungen des kantonalen Luzerner Polizeigesetzes, unter anderem in Bezug auf Predictive Policing, für nichtig erklärt. Das Bundesgericht kam zum Schluss, dass die Gesetzgebung die erforderliche Genauigkeit nicht erfüllte. Er verwies dabei unter anderem auf ein von AlgorithmWatch CH erarbeitetes Positionspapier zum Schutz vor algorithmischer Diskriminierung. Zudem ist auch fraglich, welche Verfahrensgarantien (beispielsweise das Recht auf rechtliches Gehör oder die Rechtsweggarantie), wann im Rahmen des Predictive Policing gelten. Gewisse, wie die Unschuldsvermutung, greifen gar nicht. Solche Garantien wären aber besonders wichtig in grundrechtssensiblen Bereichen wie dem Predictive Policing, das präventivpolizeiliche Eingriffe ermöglicht, obwohl noch keine Straftat begangen wurde.
Neben den kantonalen Polizeigesetzen können auch das Bundesgesetz über die Anwendung polizeilichen Zwangs und polizeilicher Massnahmen im Zuständigkeitsbereich des Bundes (ZAG) und das Bundesgesetz über polizeiliche Massnahmen zur Bekämpfung von Terrorismus (PMT) mit der dazugehörigen Verordnung als Grundlage für Eingriffe im Bereich Predictive Policing dienen. Das PMT erlaubt dem fedpol gegenüber von terroristischen Gefährder*innen präventive Massnahmen zu ergreifen. Vor allem die unklare Definition von «terroristischen Gefährder*innen» bietet keinen ausreichenden Schutz vor willkürlichen Eingriffen.
Fehlt eine ausdrückliche gesetzliche Grundlage, stellt sich die Frage, ob die polizeiliche Generalklausel herangezogen werden kann. Diese erlaubt auch schwerwiegende Eingriffe in Grundrechte, sofern damit die öffentliche Ordnung oder zentrale Rechtsgüter des Staates oder von Privatpersonen vor ernsthaften und unmittelbar drohenden Gefahren geschützt werden sollen. Allerdings darf sie nur in echten Notfällen angewendet werden. Im Rahmen der Verhältnismässigkeitsprüfung ist dabei zu berücksichtigen, ob der Notfall unvorhersehbar war. Gerade im Bereich des Predictive Policing handelt es sich jedoch regelmässig nicht um unvorhersehbare Notfälle. Deshalb kann die Generalklausel etwa in den Bereichen häusliche Gewalt und Terrorismus nicht als Ersatz für eine gesetzliche Grundlage genügen.
Zukünftige Reglung im Rahmen der schweizerischen KI-Regulierung?
Die Schweiz hat den Regulierungsbedarf in Bezug auf Künstliche Intelligenz anerkannt. Der Bundesrat hat die KI-Konvention des Europarats unterzeichnet und das Bundesamt für Justiz beauftragt, bis Ende 2026 Gesetzesentwürfe zur Ratifizierung der Konvention auszuarbeiten. Derzeit ist noch nicht absehbar, ob und wie Anwendungen, die erhebliche Auswirkungen auf die Grundrechte haben können, wie etwa Predictive Policing, in den künftigen KI-Regulierungen behandelt werden.


