Projets

Projet «HUMAN»

HUMAN – un pas de plus vers une utilisation responsable de l’IA

Lorsque la police tente de calculer la probabilité de récidive des délinquant·e·s à l’aide d’algorithmes, lorsque les employeurs font un premier tri des candidatures à l’aide de l’IA ou lorsqu’un agent conversationnel basé sur l’IA rédige des articles de presse: qui est concerné·e par ces contenus, recommandations et décisions générés par des algorithmes? Comment les personnes concernées peuvent-elles être impliquées afin de garantir le respect de leurs droits et la préservation de leurs intérêts?

Élections 2023

Comment ChatGPT, Bing Chat & Co. pourraient menacer la formation de l’opinion publique

S’informer sur comment voter à l’aide de modèles linguistiques d’IA tel que Bing Chat est une très mauvaise idée. C’est en effet ce que mettent en évidence les résultats d’une analyse menée par AlgorithmWatch et AI Forensics en collaboration avec la RTS et la SRF dans le cadre des élections fédérales en Suisse, ainsi que des élections régionales en Bavière et dans la Hesse. Ces grands modèles de langage apportent à des questions importantes des réponses parfois complètement erronées, en partie mensongères, incomplètes ou obsolètes. Bing Chat, ChatGPT et Co. peuvent ainsi constituer une menace pour la formation de l’opinion publique dans une démocratie.

Atlas de l’automatisation

Pour détecter les fraudes aux prestations sociales, mesurer les performances au travail, prédire la solvabilité d'une personne ou nous afficher des contenus personnalisés en ligne - les algorithmes et ce que l'on appelle «Intelligence artificielle» façonnent aujourd'hui notre quotidien. Mais où, par qui et dans quel but ces derniers sont utilisés reste en grande partie une boîte noire. Avec l'Atlas de l'automatisation, AlgorithmWatch CH apporte un éclairage sur le sujet - et publie un aperçu des systèmes algorithmiques utilisés en Suisse.

Projet «FINDHR»

Just Hiring! Comment éviter la discrimination par les algorithmes dans les processus de recrutement

Une IA qui présélectionne les candidatures à un emploi? Dans le cadre du projet Horizon Europe «FINDHR», nous avons développé des algorithmes, des méthodes et des formations visant à réduire la discrimination lorsque l’IA est utilisée dans le recrutement. Voici nos résultats.

Projet «Analytics for the People?»

Les implications des algorithmes au travail sur les droits et la participation des travailleuses et travailleurs

Dans le cadre d'un projet commun avec le syndicat syndicom, AlgorithmWatch CH a examiné comment la capacité des employé·e·s à agir lors de l’utilisation de systèmes algorithmiques sur le lieu de travail peut être renforcée.

Les algorithmes dans le discours politique suisse

Ce projet est réalisé dans le cadre d'un Capstone Course de l'Institut de sciences politiques de l'Université de Zurich. L'objectif est d'évaluer le discours suisse sur l'utilisation des algorithmes : Quels acteurs façonnent le débat public et à partir de quelles perspectives les algorithmes sont politiquement problématisés ?

Les systèmes d’ADM dans le secteur public

L’automatisation de la société