AlgorithmWatch est une organisation de recherche et de plaidoyer, à but non lucratif. Nous analysons les systèmes algorithmiques ayant une influence sur la société.

Papier de position

Discrimination par des algorithmes : comment assurer la protection ?

Lorsque des algorithmes font des pronostics, donnent des recommandations ou prennent des décisions, il y a toujours un risque qu’ils discriminent des personnes. Mais comment les algorithmes discriminent-ils exactement ? Et que devrait faire la politique pour y remédier ? Nous montrons la nécessité d’agir et proposons des solutions pour renforcer la protection contre la discrimination algorithmique.

Photo: Ricardo Resende | Unsplash

25 Septembre 2023

#publicsector

Mis en lumière

Un patchwork algorithmique dans les administrations suisses

Les administrations publiques utilisent des systèmes algorithmiques qui ont une influence sur les décisions concernant les individus. Où et pourquoi sont-ils utilisés ? Nous avons posé cette question aux 26 chancelleries cantonales et analysé leurs réponses. Spoiler : de nombreux cantons ne sont pas en mesure de fournir des informations complètes sur les systèmes qu'ils utilisent.

Communiqué de presse

Questionnaire smartvote : Une forte majorité pour l’interdiction de la reconnaissance faciale

Près de 80 % des candidat·e·x·s aux élections fédérales sont favorables à une interdiction de la reconnaissance faciale automatisée dans l’espace public. Tous les partis excepté l’UDC rejettent cette forme de surveillance de masse. L’alliance « Protégeons nos droits fondamentaux, non à la reconnaissance faciale » salue le résultat sans équivoque de l’enquête smartvote.

Nouvelle recherche

Élections 2023 : comment ChatGPT, Bing Chat & Co. pourraient menacer la formation de l’opinion publique

S’informer sur comment voter à l’aide de modèles linguistiques d’IA tel que Bing Chat est une très mauvaise idée. C’est en effet ce que mettent en évidence les résultats d’une analyse menée par AlgorithmWatch et AI Forensics en collaboration avec la RTS et la SRF dans le cadre des élections fédérales en Suisse, ainsi que des élections régionales en Bavière et dans la Hesse. Ces grands modèles de langage apportent à des questions importantes des réponses parfois complètement erronées, en partie mensongères, incomplètes ou obsolètes. Bing Chat, ChatGPT et Co. peuvent ainsi constituer une menace pour la formation de l’opinion publique dans une démocratie.

Khari Slaughter

Publication

23 Mai 2023

#work

Les systèmes algorithmiques sur le lieu de travail – un aperçu

Les systèmes algorithmiques sur le lieu de travail peuvent avoir un impact massif sur les employé·e·s, qui devraient donc avoir leur mot à dire sur l'utilisation de ces systèmes afin de préserver leurs droits fondamentaux. Notre bref rapport montre comment les employeurs en Suisse gèrent leur responsabilité.

fragola design for AlgorithmWatch

Atlas de l’automatisation

Pour détecter les fraudes aux prestations sociales, mesurer les performances au travail, prédire la solvabilité d'une personne ou nous afficher des contenus personnalisés en ligne - les algorithmes et ce que l'on appelle “Intelligence Artificielle" façonnent aujourd'hui notre quotidien. Mais où, par qui et dans quel but ces derniers sont utilisés reste en grande partie une boîte noire. Avec l'Atlas de l'automatisation, AlgorithmWatch CH apporte un éclairage sur le sujet - et publie un aperçu des systèmes algorithmiques utilisés en Suisse.

Graphique : Beate Autering

Stories

Discrimination par des algorithmes médicaux, 3 Décembre 2020

Algorithmes médicaux : la discrimination des Noir·es est une réalité, en Suisse aussi

Les algorithmes utilisés pour évaluer la fonction rénale ou prédire une insuffisance cardiaque utilisent la race comme critère central, sans aucune justification scientifique. Les résultats discriminent les patient·es Noir·es.

Lire la suite

Projets

20 Avril 2023

FINDHR: Des algorithmes équitables dans les processus de recrutement du personnel

AlgorithmWatch CH participe au projet Horizon Europe «FINDHR». L'objectif de ce projet de recherche interdisciplinaire est de lutter contre les effets discriminatoires des logiciels dans le domaine de la sélection du personnel (recrutement) et de développer des méthodes, des outils et des formations pour les éviter.

Lire la suite

Publications

Image by rawpixel.com on Freepik

4 Octobre 2023

Recherche sur Bing Chat – résultats intermédiaires

Grands modèles linguistiques d’IA dans le contexte des élections

Avec quelle fiabilité le chatbot du moteur de recherche Bing de Microsoft répond-il aux questions sur les élections à venir en Suisse, en Bavière et en Hesse ? Notre recherche le montre : le grand modèle linguistique GPT-4 qui le sous-tend génère et diffuse des informations inventées et trompeuses. Cela pourrait devenir un problème pour la démocratie.

Lire la suite

Positions

feinheit.ch/

26 Mai 2023

Wanted : des règles du jeu pour l’IA dans la campagne électorale

Des systèmes d’«intelligence artificielle» disponibles en ligne permettent aujourd'hui de générer en quelques secondes de nouveaux contenus, sous la forme d’images ou de textes. Ceux-ci peuvent également être utilisés de manière stratégique à des fins politiques. En collaboration avec l'agence Feinheit, AlgorithmWatch CH appelle les partis suisses à identifier clairement ces contenus lors de la campagne électorale à venir - et à ne pas les utiliser de manière négative dans la campagne.

Lire la suite

Blog

Photo: Ricardo Resende | Unsplash

19 Septembre 2023

Communiqué de presse

Intelligence artificielle : en Suisse, les algorithmes discriminent en toute impunité

Dans sa nouvelle prise de position, l'organisation de défense des droits humains AlgorithmWatch CH critique le droit suisse contre la discrimination, qui présente des lacunes évidentes en matière de protection contre la discrimination par les algorithmes. Le papier de position montre de manière détaillée comment l’Intelligence artificielle et d'autres systèmes algorithmiques peuvent conduire à de nouvelles formes de discrimination. AlgorithmWatch CH demande donc une extension du cadre juridique contre la discrimination, notamment par une interdiction générale de la discrimination pour les privés ainsi que par l’introduction de procédures de recours collectifs.

Lire la suite