Projets

Projet «HUMAN»

Les humains doivent s’assurer que l’IA soit au service des humains

Lorsque la police tente de calculer la probabilité de récidive des délinquant·e·s à l'aide d'algorithmes, lorsque les employeurs prétrient les candidatures à l'aide de l'IA ou quand un chatbot d’IA rédige des articles de presse: qui est concerné·e par ces contenus, recommandations et décisions générés par des algorithmes? Et comment les personnes concernées peuvent-elles être impliquées afin de garantir leurs droits et leurs intérêts?

Élections 2023

Comment ChatGPT, Bing Chat & Co. pourraient menacer la formation de l’opinion publique

S’informer sur comment voter à l’aide de modèles linguistiques d’IA tel que Bing Chat est une très mauvaise idée. C’est en effet ce que mettent en évidence les résultats d’une analyse menée par AlgorithmWatch et AI Forensics en collaboration avec la RTS et la SRF dans le cadre des élections fédérales en Suisse, ainsi que des élections régionales en Bavière et dans la Hesse. Ces grands modèles de langage apportent à des questions importantes des réponses parfois complètement erronées, en partie mensongères, incomplètes ou obsolètes. Bing Chat, ChatGPT et Co. peuvent ainsi constituer une menace pour la formation de l’opinion publique dans une démocratie.

Atlas de l’automatisation

Pour détecter les fraudes aux prestations sociales, mesurer les performances au travail, prédire la solvabilité d'une personne ou nous afficher des contenus personnalisés en ligne - les algorithmes et ce que l'on appelle «Intelligence artificielle» façonnent aujourd'hui notre quotidien. Mais où, par qui et dans quel but ces derniers sont utilisés reste en grande partie une boîte noire. Avec l'Atlas de l'automatisation, AlgorithmWatch CH apporte un éclairage sur le sujet - et publie un aperçu des systèmes algorithmiques utilisés en Suisse.

Projet «FINDHR»

Éviter la discrimination par les algorithmes lors du recrutement du personnel

AlgorithmWatch CH participe au projet Horizon Europe «FINDHR». L'objectif de ce projet de recherche interdisciplinaire est de lutter contre les effets discriminatoires des logiciels dans le domaine de la sélection du personnel et de développer des méthodes, des outils et des formations pour les éviter.

Projet «Analytics for the People?»

Les implications des algorithmes au travail sur les droits et la participation des travailleuses et travailleurs

Dans le cadre d'un projet commun avec le syndicat syndicom, AlgorithmWatch CH a examiné comment la capacité des employé·e·s à agir lors de l’utilisation de systèmes algorithmiques sur le lieu de travail peut être renforcée.

Les algorithmes dans le discours politique suisse

Ce projet est réalisé dans le cadre d'un Capstone Course de l'Institut de sciences politiques de l'Université de Zurich. L'objectif est d'évaluer le discours suisse sur l'utilisation des algorithmes : Quels acteurs façonnent le débat public et à partir de quelles perspectives les algorithmes sont politiquement problématisés ?

Les systèmes d’ADM dans le secteur public

L’automatisation de la société