Explication

Police algorithmique: présomption de culpabilité anticipée

La police algorithmique consiste à prédire de manière prétendument algorithmique, sur la base de données criminelles historiques, qui commettra quelles infractions à l’avenir. Nous expliquons ici pourquoi une telle pratique s’avère souvent discriminatoire, juridiquement discutable et loin d’être aussi efficace qu’on le prétend.

Cet article explicatif a été rédigé avec l’aide de Jasmin Andreatta.

Le terme «police prédictive» (ou «predictive policing») n’a pas de définition juridique. Il est suggestif car il est implicitement lié à l’affirmation que certaines technologies peuvent réellement prédire les délits. Généralement, ce terme fait référence à des systèmes d’IA et à des algorithmes destinés à identifier les zones, les lieux et les périodes où certains types de délits sont susceptibles de se produire. Par ailleurs, ils sont également utilisés pour prédire quelles personnes sont susceptibles de commettre des délits. Une telle police prédictive liée à des individus analyse d’énormes quantités de données: les antécédents criminels, les réseaux actuels et les facteurs qui, d’un point de vue statistique, favorisent la perpétuation de délits. Des profils prédictifs se rapportant à des individus sont ensuite créés sur la base de ces données.

Les systèmes de police prédictive liés à des lieux visent eux à déterminer quels quartiers seront plus touchés par la criminalité ou les lieux où des cambriolages sont susceptibles de se produire, par exemple. Ainsi, la police cantonale d’Argovie et la police municipale de Zurich se servent de PRECOBS pour prédire les cambriolages. Les hypothèses des systèmes de police prédictive reposent sur des données statistiques, et notamment sur des données historiques de la criminalité. Ces «quartiers chauds» générés par les algorithmes sont généralement des zones où vivent et travaillent de nombreuses minorités. La population de ces quartiers court un risque particulièrement élevé de soupçon systémique. Les personnes qui y vivent peuvent ainsi être criminalisées.

La suspicion anticipée engendre une hausse de la criminalité

Lorsque des contrôles renforcés ont lieu dans ces quartiers, ils sont enregistrés, puis intégrés dans les données sur la criminalité qu’ils biaisent, puisqu’ils ne reposent pas sur des soupçons concrets. De ce fait, ils influent à leur tour sur d’autres analyses qui visent à prédire la criminalité. Cela produit un effet d’auto-renforcement car ce sont toujours les mêmes quartiers et les mêmes profils qui se retrouvent dans le viseur, et qui, au final, génèrent encore plus de données sur la criminalité. En criminologie, on appelle ce phénomène le syndrome de Lüchow-Dannenberg. Une présence policière accrue dans un lieu fait augmenter le nombre de délits et de crimes recensés par les statistiques. Autrement dit: lorsque les patrouilles de police sont plus nombreuses dans un quartier, elles y constatent plus de délits. Toutefois, cela ne veut pas dire pour autant que les délits y sont plus nombreux qu’ailleurs. En effet, comme la police déploie davantage de ressources dans les zones mises en avant par les algorithmes, on peut supposer que davantage de délits passent sous les radars dans les autres zones.

De plus, il arrive aux systèmes d’analyse et de profilage utilisés par la police d’établir des relations entre des suspects et des personnes entrées en contact avec eux par hasard. C’est ainsi que les systèmes en arrivent à élaborer un réseau criminel présumé qui en réalité n’existe pas, et dans lequel se trouvent des personnes qui n’ont strictement rien à se reprocher. Dans le domaine de la police prédictive, la Suisse fait office de pionnière, notamment lorsqu’il s’agit de prédire qui est susceptible de commettre des infractions. La Suisse utilise par exemple des systèmes tels qu’Octagon (prévision de la violence), Odara (prévision de la violence domestique), DyRiAS (prévision de la violence à l’école, au travail ou dans la sphère privée) ou encore Ra-Prof (profilage axé sur la radicalisation). Comme le fait remarquer Jasmin Andretta dans une recherche, il existe cependant de grandes disparités entre la Suisse alémanique et la Suisse romande. En effet, les cantons francophones recourent beaucoup moins souvent à ces systèmes.

Il n’existe pas d’informations accessibles au public sur les données traitées par ces systèmes d’analyse algorithmique automatisée, ni sur le fait que leur mode de fonctionnement et leur efficacité aient fait l’objet d’évaluations de suivi et d’audits indépendants avant ou pendant leur utilisation. Il est donc impossible de savoir avec certitude à quel point ces systèmes sont biaisés envers certaines catégories de la population. De nombreux exemples prouvent cependant que de tels systèmes favorisent directement et indirectement le profilage racial (contrôles basés non sur des soupçons, mais principalement sur l’apparence des personnes contrôlées), le racisme et d’autres formes de discrimination, en particulier contre les personnes perçues comme des migrantes.

Quel est l’intérêt de tout cela?

Il n’est pas prouvé que les systèmes «prédictifs» font réellement baisser la criminalité. Plusieurs des études portant sur le nombre de fois où ces systèmes ont généré de faux soupçons, ou sur les cas où ils ont manqué de relever des soupçons possiblement légitimes, sont inquiétantes.

En Allemagne, les algorithmes de la police recherchent des modèles parmi les données enregistrées sur les passagers aériens. Entre le 29 août 2018 et le 31 mars 2019, l’Office fédéral allemand de la police criminelle a fait vérifier manuellement les «correspondances» générées automatiquement par le système qui traite les données des passagers aériens. Seules 277 des près de 94 000 correspondances se sont révélées exactes, soit un taux de réussite de 0,3 %. Aux États-Unis, une analyse réalisée en 2023 a révélé que moins de 0,5 % des 23 631 prédictions de délits générées par le système Geolitica (anciennement PredPol) pour la ville de Plainfield (New Jersey) concordaient avec les crimes signalés. Un tel pourcentage est loin de démontrer l’efficacité du système.

L’Institut Max-Planck pour l’étude de la criminalité, de la sécurité et du droit a réalisé l’un des rares tests indépendants visant à évaluer l’application du logiciel PRECOBS pour prédire les cambriolages en Allemagne. Les auteur·rice·s de l’étude n’ont pu apporter aucune preuve quant à l’efficacité de cette méthode police prédictive. D’une part, le nombre de cambriolages a nettement baissé en Allemagne et dans toute l’Europe depuis 2015. D’autre part, le recours à des instruments de police prédictive n’est généralement qu’un élément d’une stratégie policière globale. Il est donc possible que d’autres mesures aient elles aussi contribué à la baisse du nombre de cas. Dès 2020, une recherche menée par AlgorithmWatch avait montré qu’en raison du manque de transparence, il était impossible d’évaluer de manière satisfaisante les effets des systèmes comme PRECOBS dans le monde réel.

Le cercle vicieux du racisme

Le profilage racial et discriminatoire conduit à des contrôles et des fouilles injustifiés, ce que dénoncent depuis longtemps des personnes concernées, des associations de victimes, des activistes, des scientifiques, des organisations de défense des droits humains et des organisations internationales.

Pourtant, cette discrimination de la part de la police, des autorités répressives et des systèmes basés sur des données est rarement considérée comme un problème d’ordre structurel ou institutionnel. L’arrêt de la Cour européenne des droits de l’homme (CEDH) rendu dans le cadre de l’affaire Wa Baile c. Suisse a montré sa pertinence pour la Suisse. Le lien entre la police prédictive et le profilage racial par des systèmes algorithmiques est un sujet encore peu discuté en Suisse.

Un exemple aux États-Unis montre clairement ce qui peut se passer lorsque des systèmes autonomes sont utilisés de manière précipitée, sans que les conséquences éthiques, juridiques et sociales de leur utilisation aient été examinées au préalable. L’algorithme COMPAS était censé prédire si des délinquant·e·s allaient récidiver. Il classait les personnes noires comme étant plus souvent susceptibles de récidiver que les délinquantes blanc·he·s, ce qui ne reflète pas la réalité. En Suisse, on utilise FOTRES, un système dont la finalité est similaire – même s’il est techniquement beaucoup plus simple – et qui, selon une étude, n’a pas été suffisamment testé scientifiquement. Depuis 2018, les autorités judiciaires de tous les cantons de Suisse alémanique utilisent FaST (Fall Screening Tool) pour l’exécution des sanctions axées sur les risques (ROS).

De tels préjugés racistes peuvent apparaître lorsque des contacts avec la police sont dus à un profilage racial et que les données qui en résultent sont intégrées dans un système d’IA destiné à la police prédictive. Les prédictions du système seront alors tout aussi racistes que le profilage racial lui-même.

Poursuites pénales basées sur l’IA et législation européenne

Au sein de l’UE, l’utilisation de systèmes d’IA dans les poursuites pénales est régie dans une certaine mesure par la directive sur les poursuites pénales (directive Police-Justice). Conformément à l’article 11 de la directive, une personne est tenue de vérifier le traitement des données à caractère personnel en vue de l’établissement de profils à des fins répressives, étant donné qu’il est interdit de prendre des décisions fondées exclusivement sur un traitement automatisé de données personnelles.

Le règlement européen sur l’IA (AI Act) constate que certains systèmes d’IA utilisés par les autorités répressives présentent un risque considérable, pouvant entraîner une surveillance, des arrestations et, de manière générale, une violation des droits fondamentaux. Dès lors que le mode de fonctionnement de ces systèmes est secret, opaque ou non documenté, cela peut compromettre le droit à une procédure équitable, une protection juridique efficace ou même la présomption d’innocence.

L’article 5, paragraphe 1, point d), du règlement européen sur l’IA interdit l’utilisation de systèmes d’IA dans le cadre d’une police prédictive lorsqu’ils reposent uniquement sur le profilage d’une personne physique ou l’évaluation de ses traits de personnalité ou caractéristiques (contrairement aux prédictions concernant des zones géographiques). Le recours à la police prédictive basée sur l’IA est toutefois autorisé dès lors que l’IA aide les officiers de police, le ministère public ou encore les enquêteur·rice·s dans la réalisation de leurs évaluations.

De nombreux systèmes de police prédictive non interdits sont considérés comme des systèmes d’IA à haut risque en vertu de l’article 6, paragraphe 2. Le règlement sur l’IA considère notamment les applications suivantes de systèmes d’IA comme à haut risque pour les autorités de poursuite pénales:

Les fournisseurs de systèmes d’IA à haut risque sont tenus de satisfaire plusieurs exigences pour pouvoir vendre leurs systèmes d’IA aux autorités répressives. Les déployeurs – par exemple, les autorités de police, les autorités frontalières ou les établissements pénitentiaires – doivent eux aussi remplir certaines conditions avant de mettre en service un système d’IA à haut risque. Ils sont tenus notamment de procéder à une analyse d’impact concernant les droits fondamentaux.

Bases légales pour la police prédictive en Suisse

En Suisse, toute action de l’État doit reposer sur une base légale, y compris dans le domaine de la police prédictive. Ces bases légales figurent en grande partie dans les lois cantonales sur la police. D’autres lois fédérales sont également applicables. Monika Simmler et Simone Brunner ont analysé les lois sur la police des cantons de Soleure, Saint-Gall et Zurich en ce qui concerne la gestion des menaces, qui fait partie de la police prédictive. L’objectif de la gestion des menaces est de détecter tôt les évolutions potentiellement dangereuses chez une personne afin de prévenir des actes de violence, par exemple dans le domaine de la violence domestique. Elles ont constaté qu’il manquait encore en grande partie des bases légales claires. De ce fait, le risque de prise de décisions arbitraires, et donc discriminatoires, s’en trouve accru. Dans son arrêt du 17 octobre 2024, le Tribunal fédéral a annulé plusieurs dispositions de la loi cantonale sur la police de Lucerne, notamment concernant la police prédictive. Le Tribunal fédéral est arrivé à la conclusion que la législation ne remplissait pas la précision requise. Il a notamment fait référence à un papier de position sur la protection contre la discrimination algorithmique, rédigé par AlgorithmWatch CH. En outre, on peut également se demander quelles garanties procédurales (par exemple, le droit d’être entendu ou la garantie de l’accès au juge) s’appliquent dans le cadre de la police prédictive et à quel moment. Certaines, comme la présomption d’innocence, ne s’appliquent même pas. De telles garanties seraient cependant particulièrement importantes dans des domaines sensibles en termes de droits fondamentaux, comme la police prédictive, qui permet des interventions policières préventives alors qu’aucune infraction n’a encore été commise.

Outre les lois cantonales sur la police, la Loi fédérale sur l’usage de la contrainte et de mesures policières dans les domaines relevant de la compétence de la Confédération (LUsC) et la Loi fédérale sur les mesures policières de lutte contre le terrorisme (MPT) ainsi que l’ordonnance relative peuvent servir de base aux interventions dans le domaine de la police prédictive. La MPT permet à fedpol de prendre des mesures préventives à l’encontre des terroristes potentiel·le·s. Le terme de «terroriste potentiel» n’étant pas clairement défini, cela n’offre pas une protection suffisante contre des interventions arbitraires.

En l’absence de base légale explicite, la question se pose de savoir si la clause générale de police peut être invoquée. Celle-ci autorise également des atteintes graves aux droits fondamentaux, dans la mesure où elles visent à protéger l’ordre public ou des biens juridiques fondamentaux de l’État ou de personnes privées contre des dangers sérieux, directs et imminents. Cependant, elle ne doit être appliquée qu’en cas d’urgences réelles. Dans le cadre de l’examen de proportionnalité, il convient de tenir compte du caractère imprévisible de l’urgence. Or, dans le domaine de la police prédictive, il ne s’agit généralement pas d’urgences imprévisibles. C’est pourquoi la clause générale ne peut être invoquée, par exemple, dans les domaines de la violence domestique et du terrorisme, pour se substituer à une base légale.

Future législation dans le cadre de la réglementation suisse sur l’IA?

La Suisse a reconnu la nécessité d’une réglementation en matière d’intelligence artificielle. Le Conseil fédéral a signé la Convention sur l’IA du Conseil de l’Europe et a chargé l’Office fédéral de la justice de préparer des projets de loi pour la ratification de la Convention d’ici fin 2026. Pour l’heure, il est impossible de prédire si, ni comment les applications susceptibles d’avoir un impact significatif sur les droits fondamentaux, comme la police prédictive, seront encadrées par les futures réglementations sur l’IA.

AlgorithmNews CH - abonne-toi maintenant à notre newsletter !

Je suis d'accord avec le traitement de mes données et je sais que je peux me désabonner de la newsletter à tout moment.