Explication

Montre ton visage et l’IA dira qui tu es

Les technologies de reconnaissance biométrique permettent d’identifier et de surveiller des personnes. Elles sont censées renforcer la sécurité, mais elles discriminent, menacent les droits fondamentaux et peuvent même conduire à de la surveillance de masse.

Les systèmes de reconnaissance biométrique observent et suivent des personnes sur la base de leurs caractéristiques biologiques, telles que les traits du visage, la démarche, la voix ou l’iris, puis traitent les données qui en résultent. Ils sont notamment employés sur le lieu de travail, lors d’examens («proctoring») ainsi que dans le cadre de poursuites pénales. Ils sont également installés dans des espaces librement accessibles (p. ex. dans des supermarchés, des gares ou sur des places publiques).

Lorsque, dans l’espace public, des systèmes d'IA comparent les visages de personnes filmées aux images contenues dans une base de données, elles identifient des individus au sein d’une foule. Les services de police qui recourent à de tels outils ne savent souvent pas si une personne recherchée se trouve bel et bien à un endroit donné: en principe, ils ne comparent pas uniquement les données biométriques propres aux suspect·e·s, mais celles de toutes les personnes qui se trouvent ou se sont trouvées dans un lieu précis. Les renseignements concernant des individus qui ne sont pas du tout impliqués dans des affaires pénales font donc également l’objet d’examens.

Cependant, les mesures prises dans le cadre de suivis par la police et de poursuites judiciaires à la suite d’infractions et, plus généralement, dans le contexte de la protection de la sécurité publique, doivent être proportionnées. La restriction des droits fondamentaux ne peut être justifiée que si elle repose sur une base légale et qu’elle a pour objectif principal de garantir l’intérêt public. L’essence des droits fondamentaux doit en outre être préservée.

Les systèmes technologiques servant à la surveillance et à l’identification biométrique sont fondamentalement conçus pour traiter les renseignements d’un nombre illimité de personnes, qu’ils comparent à des bases de données. C'est pourquoi leur utilisation dans des espaces publics aboutit à une surveillance de masse.

Aujourd’hui, ces programmes sont testés et introduits rapidement dans toute l’Europe et au-delà. Ils sont placés dans les stades, les aéroports, les casinos et les écoles. En Suisse, ils sont, entre autres, employés par certains services de police cantonaux dans le cadre de poursuites pénales. On les retrouve, par exemple, dans les cantons d’Argovie, de Neuchâtel, de Saint-Gall et de Vaud. L’Office fédéral de la police (fedpol) prévoit d’introduire un système de reconnaissance faciale dès 2026.

Le processus de reconnaissance peut se dérouler en direct et sur place, mais aussi à distance et en différé. La comparaison avec les bases de données ne s’effectue donc pas en temps réel, mais a posteriori, au moyen d’enregistrements vidéo sauvegardés. Pour cette raison, les personnes surveillées peuvent difficilement déterminer le moment où elles sont effectivement observées. De nombreuses caméras modernes disposent déjà d’une telle fonction d’identification en différé.


L’expression «reconnaissance faciale» est souvent employée dans le contexte de la reconnaissance biométrique. Elle est désormais utilisée comme synonyme du terme «identification biométrique à distance». Mais que signifient vraiment les termes « identification », «temps réel», «en différé» et «à distance»?

Identification et authentification

Il convient de distinguer la vérification biométrique de l’identification biométrique à distance. Lors de processus de vérification fondés sur l’IA, des personnes déverrouillent, par exemple, leur téléphone à l’aide de leur empreinte digitale. Dans ce cas de figure, aucune collecte de donnée en masse ne se produit, et les informations ne sont pas comparées avec une banque de données. Les utilisateur·trice·s choisissent personnellement la procédure qui leur sied, et les données sont conservées sur l’appareil.

Identification en temps réel et en différé

Le traitement de données biométriques peut, d’une part, se produire en «temps réel», c’est-à-dire que l’analyse des données se déroule simultanément à leur récolte. D’autre part, elle peut être effectuée «en différé», auquel cas les renseignements collectés sont évalués a posteriori. La signification de «a posteriori» soulève toutefois des questions: à quelle durée se réfère cette expression? Après une minute, ou après un jour? Étant donné qu’il n’en existe aucune définition concrète, il est impossible de différencier l’analyse en temps réel de l’identification en différé.

Dans certains cas, le traitement des données en différé met sérieusement en péril les droits fondamentaux. Les gouvernements ou autorités telles que la police peuvent, à l’aide de données sensibles et personnelles, suivre des individus, savoir où ils se trouvent, ce qu’ils font et qui ils rencontrent, et ce, pendant des semaines, des mois ou des années. Cette réalité pourrait, par exemple, dissuader des sources de communiquer des informations importantes aux journalistes, car ces personnes ne seraient plus sûres de pouvoir conserver leur anonymat.

Identification à distance

Que signifie réellement «identification à distance»?

Dans le cas où des personnes présentes dans un aéroport seraient filmées, à des fins de traitement de leurs données biométriques, par des caméras installées à tous les recoins du bâtiment, elles seraient soumises à une identification à distance. En effet, la comparaison des données se produirait sans leur participation active, loin du lieu où les informations ont été collectées. En revanche, si des individus déposent leur doigt sur une surface afin de faire établir une empreinte digitale, ils participent activement à la récolte de données. Il est à noter que la distance permettant de déterminer un lieu comme «éloigné» n’a jamais été définie.

La différence réside donc essentiellement dans l’éloignement géographique entre le lieu où les données sont collectées et celui où elles sont traitées ainsi que dans la participation, active ou non, des personnes auxquelles appartiennent ces informations.


Une technologie sûre dans un monde incertain?

Les autorités et les fournisseurs de systèmes de sécurité vantent les mérites de la reconnaissance faciale. Ils la décrivent comme une méthode innovante et fiable permettant d’améliorer les processus de poursuites pénales. Cependant, le besoin de sécurité sociale, tout à fait légitime, devient problématique lorsqu’il engendre une érosion des droits fondamentaux.

L’identification ou la surveillance constante de personnes présentes dans l’espace public ne violent pas uniquement le droit à la sphère privée, mais entraînent également un effet dissuasif. En effet, elles peuvent empêcher les individus d’exercer d’autres droits fondamentaux, tels que la liberté d’expression ou de réunion. Des personnes pourraient se voir découragées de participer à des manifestations ou de fréquenter certains lieux qui pourraient, par exemple, fournir des indications sur leur orientation politique ou sexuelle. Étant donné que les caractéristiques biométriques sont propres au corps, elles ne peuvent être masquées en public qu’au prix d’efforts importants. À titre d’exemple, aux États-Unis, des personnes manifestant sur les campus universitaires ont dissimulé leurs visages et leurs corps afin d’empêcher les systèmes de reconnaissance faciale et d’identification de la démarche d’obtenir des données exploitables les concernant.

L’histoire révèle que ce sont précisément les gouvernements répressifs qui misent sur cet effet dissuasif. Un tel cas s’est déroulé en Argentine: deux jours avant le début d’une grande manifestation, le gouvernement a menacé de recourir à un système de reconnaissance faciale afin d’identifier les participant·e·s et de réduire ensuite leurs prestations sociales. Par conséquent, seules quelques personnes sont descendues dans la rue. Les autorités ont donc réussi à intimider la population et à l’empêcher de protester publiquement contre sa politique.

Les conséquences de la surveillance biométrique de masse touchent en particulier des individus et des groupes déjà désavantagés ainsi que des militant·e·s politiques. En Russie, la police a arrêté des personnes qui avaient assisté aux funérailles du dissident Alexeï Navalny. Celles-ci ont été identifiées grâce à un logiciel de reconnaissance faciale, lequel a analysé des images de la cérémonie circulant sur les médias sociaux ou provenant de caméras de surveillance.

Discrimination technologique

Lors de la mise en place de systèmes de surveillance biométrique, les droits fondamentaux sont souvent restreints de manière disproportionnée et sans bases légales. Ces systèmes menacent notre liberté sans pour autant renforcer sensiblement notre sécurité. En effet, les systèmes ne fonctionnent pas aussi bien que les fournisseurs souhaitent nous le faire croire: ils continuent à considérer comme dangereuses des personnes qui ne le sont pas nécessairement.

En Allemagne, un test effectué à la gare de Südkreuz à Berlin a révélé qu’environ une personne sur 200 était incorrectement considérée comme recherchée, ce qui correspond à 600 faux positifs quotidiens. Ces personnes soupçonnées à tort sont soumises à des contrôles désagréables. La police subirait également un surcroît de travail considérable en raison des fausses alertes. Cette charge supplémentaire la priverait de ressources qu’elle pourrait octroyer à d’autres tâches.

De plus, les technologies de reconnaissance faciale rencontrent davantage de difficultés à identifier les visages féminins et ceux de personnes à la peau foncée. Ces individus sont plus souvent signalés, à tort, comme suspects ou comme étant recherchés. Ce biais peut engendrer de graves conséquences, telles que des contrôles injustifiés ou même des arrestations.

Les données servant à l’entraînement des systèmes constituent l’une des sources de cette discrimination. Lorsqu’elles ne sont pas représentatives et contiennent, par exemple, un nombre disproportionné d’informations sur des hommes et des personnes blanches, les systèmes peinent à identifier les femmes noires. De tels entraînements imprécis augmentent la probabilité d’identifications erronées, comme l’illustrent de nombreux cas. Cependant, un système entraîné à l’aide de données représentatives pourrait, lui aussi, être utilisé de manière discriminatoire.

En 2018, à Détroit, un homme a été identifié à tort par un logiciel de reconnaissance faciale et a été accusé par la police d’avoir commis un vol à l’étalage. La ville a accepté de lui payer des dommages et intérêts et a étudié la manière dont la police emploie cette technologie. Elle a conclu que plus aucune arrestation ne devrait être effectuée sur la seule base de la reconnaissance faciale. D’anciens dossiers devraient faire l’objet de réexamens. En 2023, dans la même ville, une femme sur le point d’accoucher a été arrêtée après avoir été établie comme suspecte par un programme de reconnaissance faciale. Jusqu’à présent, tous les cas de reconnaissance erronés ayant mené à des arrestations ont concerné des personnes noires.

Depuis octobre 2022, la police de La Nouvelle-Orléans a recouru aux technologies de reconnaissance faciale à quinze reprises. À une exception près, celles-ci visaient à identifier des suspect·e·s noir·e·s. Les systèmes ont permis de mener les investigations à bien dans trois cas uniquement.

Au Royaume-Uni, un système de surveillance installé dans un supermarché et fondé sur la reconnaissance faciale a faussement identifié une cliente comme voleuse à l’étalage. Cette dernière a été raccompagnée à la sortie et priée de ne plus se rendre dans les magasins de la chaîne. Le fournisseur du système a ensuite reconnu qu’il s’agissait d’une erreur. Un grand nombre de commerçants britanniques ont établi ce système dans leurs magasins.

Maintenant ou plus tard? La surveillance par des moyens détournés

En Suisse, il n’existe aucune base légale qui interdise explicitement la reconnaissance biométrique. La révision de loi fédérale sur la protection des données (LPD), entrée en vigueur en septembre 2023, considère les données biométriques comme particulièrement sensibles dès lors qu’elles permettent d’identifier clairement une personne physique. De plus, le traitement de ces renseignements, par exemple par des systèmes de reconnaissance biométrique, ne repose sur aucune autorisation générale: il requerrait un fondement juridique spécifique sous la forme d’une loi. La LPD ne s’applique cependant qu’aux autorités fédérales et aux acteurs privés, et non aux cantons. Selon des juristes de renom (2023 Simmler, 2022 Braun Binder, Kunz & Obrecht), le caractère suffisant des bases juridiques pour justifier leur emploi est controversé. Toutefois, certains cantons recourent déjà à des systèmes de reconnaissance faciale dans le cadre de poursuites pénales.

Le traitement de données particulièrement sensibles par des systèmes de reconnaissance biométrique est considéré comme une atteinte grave au droit à l’autodétermination informationnelle (art. 13, al. 2, Cst.). Pour cette raison, une base légale fournie dans une loi au sens formel est nécessaire. Dans le cas de la recherche automatisée de véhicules, cela a été confirmé par le Tribunal fédéral en octobre 2024 (dans son jugement, le Tribunal fédéral renvoie entre autres à un papier de position d'AlgorithmWatch CH concernant la protection contre la discrimination algorithmique). Une telle atteinte aux droits fondamentaux par les autorités fédérales ou cantonales ne peut être justifiée que si elle repose sur une base légale; elle doit également être proportionnée, justifiée par un intérêt public suffisant et ne peut porter atteinte à l’essence des droits fondamentaux (art. 36 Cst.). Bien que la protection des données et l’autodétermination informationnelle offrent une certaine protection, elles ne sont pas suffisantes, puisque les systèmes sont tout de même employés dans la pratique. Plusieurs villes et cantons suisses ont cependant déjà interdit le recours aux systèmes de reconnaissance biométrique dans l’espace public, notamment grâce à la campagne de sensibilisation menée par l’alliance «Stop à la reconnaissance faciale».

Au sein de l’Union européenne, la version finale du règlement sur l’IA (AI Act) interdit en principe l’emploi de la surveillance biométrique dans l’espace public à des fins policières et dans le cadre de poursuites pénales. Elle autorise toutefois de nombreuses exceptions et laisse une grande liberté aux autorités chargées de l’exécution des lois, de la sécurité et de l'immigration. Certaines autorités, telles que l’armée, la défense et la sécurité nationale échappent totalement au champ d’application de ce règlement. Ces importantes dérogations invitent à développer la surveillance publique dans toute l’Europe.

Ainsi, d’autres systèmes biométriques, capables de classer les individus selon le genre ou l’âge ou censés pouvoir reconnaître les émotions des personnes, sont de plus en plus utilisés. En 2023, les CFF avaient planifié d’installer dans les gares des systèmes de surveillance afin d’analyser, probablement à l’aide de données biométriques, l’âge, la taille et le genre des voyageur·euse·s. La société civile a réagi par une levée de boucliers, laquelle a forcé les CFF à renoncer à cet aspect du projet. On retrouve également de telles technologies dans les supermarchés, les stades ou, en ligne, dans les banques de données de visages. En Suisse, la Coop utiliserait dans certains de ses magasins un système de vidéosurveillance basé sur l'IA qui permettrait de détecter les vols. Le logiciel permettrait de reconnaitre les comportements suspects des client·e·s. La définition d'un «comportement suspect» n'est pas connue.

AlgorithmNews CH - abonne-toi maintenant à notre newsletter !