Gespräch mit Angela Müller: Wenn die Polizei mit Software Verbrechen voraussagt
Die Idee, Verbrechen zu verhindern, bevor sie passieren, ist nicht neu. Durch heute verfügbare Technologien erfährt sie aber eine neue Relevanz: Algorithmenbasierte Predictive Policing Systeme erstellen Prognosen zu zukünftigen Verbrechen, so dass sie auf dieser Grundlage verhindert werden können. Warum das aus grundrechtlicher Sicht heikel sein kann und wo die Gefahren der vorausschauenden Polizeiarbeit liegen, erklärt Angela Müller von AlgorithmWatch Schweiz im Gespräch mit Radio RaBe in der Sendung Subkutan.
In der Schweiz werden heute sowohl personen- als auch ortsbezogene Predictive Policing Systeme eingesetzt. Anhand von Daten, die der Polizei zur Verfügung stehen, werden Prognosen erarbeitet. So wird zum Beispiel errechnet, ob bei einer Person ein besonderes Risiko besteht, dass sie in der Zukunft straffällig wird oder welche Nachbarschaft ein erhöhtes Risiko für Einbrüche aufweist.
Eine Gefahr bei der Nutzung von diesen Systemen besteht darin, dass ungerechte Rückkoppelungseffekte entstehen können – beispielsweise wenn durch die vermehrte Präsenz von Polizeipatrouillen in einer Nachbarschaft die entdeckte Kriminalitätsrate in dieser Gegend eher zementiert als gesenkt wird. Zudem sind nicht nur die Systeme oft sehr intransparent und auch für Mitarbeiter·innen der Polizei nur begrenzt nachvollziehbar, sondern ist auch ihr Nutzen wissenschaftlich nur ungenügend belegt. Oft neigen sie zudem dazu, das Risiko zu überschätzen, also beispielsweise mehr Personen als riskant einzustufen, als es tatsächlich sind. Sie haben dadurch zwar eine hohe Trefferquote, aber gleichzeitig auch viele «False Positives», das heisst, sie schätzen viele Personen irrtümlicherweise als «Gefährder·innen» ein – was für die Betroffenen wesentliche Folgen haben kann.
AlgorithmWatch Schweiz fordert eine transparente faktenbasierte Auseinandersetzung zum Thema, um einen sinnvollen Rahmen für den Einsatz von algorithmischen Systemen zu schaffen.
Radio RaBe hat ebenfalls zu unserer Kampagne «Gesichtserkennung stoppen» berichtet. Der Beitrag lässt sich hier nachhören.