In der Schweiz werden heute sowohl personen- als auch ortsbezogene Predictive Policing Systeme eingesetzt. Anhand von Daten, die der Polizei zur Verfügung stehen, werden Prognosen erarbeitet. So wird zum Beispiel errechnet, ob bei einer Person ein besonderes Risiko besteht, dass sie in der Zukunft straffällig wird oder welche Nachbarschaft ein erhöhtes Risiko für Einbrüche aufweist.
Eine Gefahr bei der Nutzung von diesen Systemen besteht darin, dass ungerechte Rückkoppelungseffekte entstehen können – beispielsweise wenn durch die vermehrte Präsenz von Polizeipatrouillen in einer Nachbarschaft die entdeckte Kriminalitätsrate in dieser Gegend eher zementiert als gesenkt wird. Zudem sind nicht nur die Systeme oft sehr intransparent und auch für Mitarbeiter·innen der Polizei nur begrenzt nachvollziehbar, sondern ist auch ihr Nutzen wissenschaftlich nur ungenügend belegt. Oft neigen sie zudem dazu, das Risiko zu überschätzen, also beispielsweise mehr Personen als riskant einzustufen, als es tatsächlich sind. Sie haben dadurch zwar eine hohe Trefferquote, aber gleichzeitig auch viele «False Positives», das heisst, sie schätzen viele Personen irrtümlicherweise als «Gefährder·innen» ein – was für die Betroffenen wesentliche Folgen haben kann.
AlgorithmWatch Schweiz fordert eine transparente faktenbasierte Auseinandersetzung zum Thema, um einen sinnvollen Rahmen für den Einsatz von algorithmischen Systemen zu schaffen.
Radio RaBe hat ebenfalls zu unserer Kampagne «Gesichtserkennung stoppen» berichtet. Der Beitrag lässt sich hier nachhören.