Appel au Conseil fédéral

Intelligence artificielle avec responsabilité… sans discrimination

Les algorithmes et l’Intelligence artificielle (IA) doivent bénéficier à toutes et tous. Pour cela, nous devons nous assurer que les systèmes sont utilisés de manière responsable et qu'ils ne discriminent pas. Nous appelons donc le Conseil fédéral à faire de la protection contre la discrimination par les algorithmes une priorité de la future régulation de l'IA.

1'482 / 2'000 Signataires

Signe maintenant l’appel

La protection contre la discrimination a besoin d’une mise à jour. En effet, l’utilisation d’algorithmes & d’IA peut discriminer des personnes.

Signe maintenant l’appel au Conseil fédéral:

Notre appel au Conseil fédéral

Les algorithmes et l'IA promettent beaucoup, mais de nombreux exemples montrent que leur utilisation peut reproduire, multiplier et consolider des injustices existantes. Au Royaume-Uni, par exemple, un algorithme soupçonnait de manière disproportionnée les personnes handicapées de fraude aux prestations sociales et les soumettait à des contrôles bureaucratiques.1 Aux Pays-Bas, des milliers de familles ont été plongées dans une détresse existentielle lorsqu'un algorithme discriminatoire leur a demandé à tort de rembourser des allocations familiales perçues pendant des années.2

Ce défi ne peut pas être relevé uniquement au niveau technique. C'est ce que montre l'exemple d'un grand commerçant en ligne. Comme le rapportent les médias, l'entreprise a développé un logiciel pour rendre les processus de recrutement plus efficaces. Il s'est toutefois avéré, alors qu'il était encore en phase de test, que son algorithme de recommandation avait tendance à écarter automatiquement les CV des femmes. Les tentatives pour remédier à ce problème au niveau technique sont restées vaines.3

Les algorithmes et l'IA peuvent influencer notre vie dans les domaines les plus divers, qu'il s'agisse de mesurer nos performances au travail, de nous montrer du contenu sur les réseaux sociaux, d'estimer notre solvabilité, d'évaluer les élèves, de prédire la délinquance ou d'attribuer des prestations de l’État. En Suisse aussi, c'est de plus en plus le cas.4 Lorsque des discriminations apparaissent, elles ont des conséquences importantes pour les personnes concernées.5 Le cadre juridique actuel en Suisse n'offre toutefois pas une protection suffisante contre ce phénomène.6

Mais il y a du mouvement ! Le Conseil fédéral examine d'ici fin 2024 les approches possibles pour la régulation de l'IA et prendra des mesures sur cette base. Nous appelons le Conseil fédéral à saisir cette opportunité :

Les réglementations relatives à l'IA devraient viser à garantir une utilisation responsable des algorithmes et de l'IA, dans le respect des droits fondamentaux et au bénéfice de toutes et tous. L'utilisation de l'IA peut être bénéfique pour la science, l'économie et la société. Mais cela ne sera possible que si les défis sont adressés et si les craintes légitimes sont prises au sérieux. Les personnes doivent être protégées efficacement contre la discrimination par les algorithmes et pouvoir s'y opposer, que ceux-ci soient utilisés par des privés ou des autorités publiques. La protection contre la discrimination par les algorithmes doit donc devenir l'une des priorités de la future régulation de l'IA.

Références

  1. Article de presse, The Guardian ↩︎
  2. Article de presse, POLITICO ↩︎
  3. Article de presse, Reuters ↩︎
  4. « Atlas de l’automatisation », AlgorithmWatch CH ↩︎
  5. Exemples de cas, AlgorithmWatch CH & humanrights.ch ↩︎
  6. Papier de position, AlgorithmWatch CH ↩︎

Organisations signataires

Personnalités signataires

Sophie Achermann, Directrice Public Discourse Foundation | Marianne Aeberhard, Directrice humanrights.ch | Vania Alleva, Présidente Unia | Prof. Dr. Tilmann Altwicker, Faculté de droits, Université de Zurich | Cesla Amarelle, Présidente de la Commission fédérale pour les questions féminines CFQF | Sanija Ameti, Co-présidente Operation Libero, Doctorante Cybersecurity and International Law & Conseillère communale Verts'libéraux | Gerhard Andrey, Conseiller national Les VERT-E-S Fribourg | Yvonne Apiyo Brändle-Amolo, Présidente Swiss Diversity & Présidente Global Minority Parliamentarians Caucus | Sibel Arslan, Conseillère nationale Les VERT-E-S Bâle-Ville | Christina Bachmann-Roth, Présidente Le Centre Femmes Suisse | Dorothea Baur, Consultante et chargée de cours IA et éthique | Kathrin Bertschy, Conseillère nationale Verts'libéraux Berne, Co-présidente alliance f | Dominik Blunschy, Conseiller national Le Centre Schwytz | Prof. Dr. Margarita Boenig-Liptsin, Assistant Professor for Ethics, Technology and Society, EPFZ Zurich | Prof. David Bozzini, Professeur d'anthropologie, Université de Fribourg | Cécile Bühlmann, anc. Conseillère nationale, Vice-présidente Société pour les minorités en Suisse | Anne-Marie Buzatu, Executive Director ICT4Peace Foundation | Isabelle Chappuis, Conseillère nationale Le Centre Vaud | PD Dr. Markus Christen, Digital Ethics Lab, Université de Zurich | Prof. Dr. Isabelle Collet, Informaticienne, Professeure en sciences de l'éducation et spécialiste des questions de genre dans le numérique, Université de Genève | Damien Cottier, Conseiller national PLR Neuchâtel | Prof. Maya Dougoud, Professeure associée HEG-FR, présidente et co-fondatrice de strukturelle | Claudine Esseiva, Députée, PLR au Grand Conseil bernois & propriétaire d'entreprise | Olivier Feller, Conseiller national PLR Vaud | Doris Fiala, anc. Conseillère nationale PLR & entrepreneure dans le domaine de la gestion des risques | Prof. Dr. Nula Katharina Frei, Faculté de droit, UniDistance | Dr. Nic Frei, juriste | Mona Gamie, Dragqueen | Dr. Sarah Genner, Experte sur le numérique & chargée de cours | Prof. Dr. Solange Ghernaouti, Professeure en cybersécurité, cyberdéfense et lutte contre la cybercriminalité, Université de Lausanne | Balthasar Glättli, Conseiller national Les VERT-E-S Zurich | Anja Glover, Modératrice et experte en antiracisme | André Golliez, Président Swiss Data Alliance | Alain Gut, Public Affairs / Government and Regulatory Affairs, IBM Schweiz | Prof. Dominik Hangartner, Professeur en politiques publiques, EPFZ Zurich | Prof. Christoph Heitz, Business Engineering and Operations Management, Haute école des sciences appliquées de Zurich | Corinna Hertweck, Doctorante sur le thème de la discrimination par les algorithmes, Université de Zurich & Haute école des sciences appliquées de Zurich | Dr.rer.pol. Manuela Honegger, Experte du numérique dans le domaine social | Romaine Jean, Consultante, Conseillère en communication | Marc Jost, Conseiller national PEV Berne | Charles Juillard, Conseiller aux États Le Centre Jura | Alexandra Karle, Directrice, Amnesty International, Section suisse | Karpi, Humoriste, Producteur de films | Sébastien Kessler, Membre du comité Inclusion Handicap | Prof. Dr. Peter G. Kirchschläger, Professeur d'éthique et directeur de l'Institut d'éthique sociale ISE, Université de Lucerne  | Patrizia Laeri, CEO ellexx Universe AG | Sandra Lüthi, Experte en sensibilisation et prévention en cybersécurité, membre du comité de Women in Cyber Switzerland | Fabian Lütz, Doctorant dans le domaine de la discrimination algorithmique, Université de Lausanne | Prof. Dr. Matthias Mahlmann, Faculté de droit, Université de Zurich | Min Li Marti, Conseillère nationale PS Zurich | Prof. Dr. Sylvain Métille, Professeur associé, Faculté de droit, Université de Lausanne | Dr. Anne Mollen, Post-Doc Researcher, Université de Münster | Tarek Naguib, Coordinateur de la Plateforme des ONG suisses pour les droits humains | Liliane Obrecht, Doctorante à l'Université de Bâle, membre du comité d'AlgorithmWatch CH | Dr. Franziska Oehmer-Pedrazzi, Kommunikationswissenschaftlerin | Prof. Dr. iur. Kurt Pärli, Professeur de droit privé social, Université de Bâle | Prisca Quadroni-Renella, Avocate suisse, directrice AI Legal & Strategy Consulting AG, Présidente «Women Experts in AI – WE AI» | Estelle Revaz, Conseillère nationale PS Genève | Dr. Johan Rochel, Co-directeur ethix, Lab for Innovation Ethics | Kevin Schawinski, Co-Founder & CEO Modulos AG | Ursula Schneider Schüttel, Présidente de la Commission fédérale contre le racisme CFR | Prof. Dr. Heiko Schuldt, Professeur d'informatique & co-directeur du réseau de recherche Responsible Digital Society, Université de Bâle | Maike Sieler, Doctorante dans le domaine de l'IA, du pouvoir et de la religion | Prof. Dr. Christoph Sigrist, Président de la Société pour les minorités en Suisse et pasteur | Prof. Dr. Monika Simmler, Professeur de droit pénal, de droit de la procédure pénale et de criminologie, Université de Saint-Gall | Dr. Daniel Stauffacher, Président ICT4Peace Foundation | Martin Steiger, Avocat en droit de l'espace numérique, Steiger Legal AG | Dr. Jean-Daniel Strub, Co-directeur ethix, Lab for Innovation Ethics | Prof. Dr. Florent Thouvenin, Titulaire de la chaire de droit de l'information et de la communication et directeur du Center for Information Technology, Society, and Law (ITSL), Université de Zurich | Laura Tocmacov, Directrice et co-fondatrice impactIA Fondation | Dr. David Vasella, Avocat, fondateur de datenrecht.ch | Dr. Stephanie Volz, Directrice scientifique du Center for Information Technology, Society, and Law (ITSL), Université de Zurich | Xenia Wassihun, Secrétaire centrale pour l'égalité et le domaine social SSP | Prof. Dr. Sophie Weerts, Professeure associée de Droit public, Université de Lausanne | Anja Wyden Guelpa, Entrepreneure, conférencière et membre de conseils d'administration | Nicolas Zahn, Expert en numérique

«La protection contre la discrimination doit être renforcée pour que l’utilisation de l’IA et d’algorithmes ne conduisent pas à de nouvelles discriminations envers les personnes en situation de handicap.»
Sebastien Kessler
Membre du comité d'Inclusion Handicap
«L’IA est un miroir grossissant des biais de notre société. Comme elle, elle peut être raciste, sexiste et homophobe. Mais ce n’est pas une fatalité. Il faut agir maintenant pour renforcer la protection contre la discrimination.»
Isabelle Collet
Informaticienne, Professeure en sciences de l'éducation et spécialiste des questions de genre dans le numérique, Université de Genève
«Le déploiement des outils d'IA ne doit pas se faire aux dépens des droits fondamentaux et de la vie démocratique. La politique doit garder la main.»
Johan Rochel
Co-fondateur & co-directeur ethix, Lab for Innovation Ethics
«La discrimination algorithmique peut potentiellement nous affecter toutes et tous. Le Conseil fédéral doit agir en conséquence.»
Estelle Pannatier
Chargée de politique & plaidoyer chez AlgorithmWatch
Estelle Pannatier