AlgorithmWatch est une organisation de défense des droits humains basée à Zurich et à Berlin. Nous nous engageons pour que les algorithmes et l’Intelligence artificielle (IA) renforcent la justice, la démocratie et la durabilité au lieu de les affaiblir.

21 Mars 2024

#discrimination

Discrimination 2.0

Ces algorithmes qui perpétuent le racisme

L'IA et les systèmes algorithmiques peuvent désavantager des personnes en raison de leur origine, voire conduire à des discriminations raciales sur le marché du travail. A l'occasion de la Journée internationale pour l'élimination de la discrimination raciale, AlgorithmWatch CH, humanrights.ch et le National Coalition Building Institute NCBI mettent en lumière la manière dont les systèmes automatisés utilisés dans les procédures de recrutement peuvent reproduire les inégalités.

Communiqué de presse

Convention du Conseil de l’Europe sur l’IA : pas de passe-droit pour les entreprises et les autorités de sécurité !

La Convention sur l'IA du Conseil de l’Europe doit devenir le premier accord international juridiquement contraignant sur l'Intelligence artificielle. Les négociations finales auront lieu à Strasbourg à partir du 11 mars 2024. Les membres du Conseil de l'Europe (dont la Suisse et les États de l'UE) et les non-membres comme les États-Unis, le Japon ou le Canada seront présents à la table des négociations. AlgorithmWatch et plus de 90 organisations de la société civile demandent aux États négociateurs de réglementer l'utilisation de l'IA par les entreprises et les autorités de sécurité nationale.

18 Janvier 2024

#regulation #work

Protection des travailleuses et travailleurs

L’Intelligence artificielle change le monde du travail. Que fait la Suisse?

Les applications d'IA sont omniprésentes dans le quotidien professionnel de nombreuses personnes, une réalité qui s’est renforcée depuis le déploiement de ChatGPT. Mais les employeurs utilisent également des outils d'IA à d'autres fins, par exemple pour gérer le personnel. Cela comporte des risques. Grâce à deux membres du Conseil national, la politique commence à prendre conscience de ces défis.

Montage photo : AlgorithmWatch CH, Photos portraits : parlament.ch

Atlas de l’automatisation

Pour détecter les fraudes aux prestations sociales, mesurer les performances au travail, prédire la solvabilité d'une personne ou nous afficher des contenus personnalisés en ligne - les algorithmes et ce que l'on appelle “Intelligence Artificielle" façonnent aujourd'hui notre quotidien. Mais où, par qui et dans quel but ces derniers sont utilisés reste en grande partie une boîte noire. Avec l'Atlas de l'automatisation, AlgorithmWatch CH apporte un éclairage sur le sujet - et publie un aperçu des systèmes algorithmiques utilisés en Suisse.

Graphique : Beate Autering

25 Septembre 2023 (mise à jour: 25 Octobre 2023)

#publicsector

Mis en lumière

Un patchwork algorithmique dans les administrations suisses

Les administrations publiques utilisent des systèmes algorithmiques qui ont une influence sur les décisions concernant les individus. Où et pourquoi sont-ils utilisés ? Nous avons posé cette question aux 26 chancelleries cantonales et analysé leurs réponses. Spoiler : de nombreux cantons ne sont pas en mesure de fournir des informations complètes sur les systèmes qu'ils utilisent.

Communiqué de presse

Questionnaire smartvote : Une forte majorité pour l’interdiction de la reconnaissance faciale

Près de 80 % des candidat·e·x·s aux élections fédérales sont favorables à une interdiction de la reconnaissance faciale automatisée dans l’espace public. Tous les partis excepté l’UDC rejettent cette forme de surveillance de masse. L’alliance « Protégeons nos droits fondamentaux, non à la reconnaissance faciale » salue le résultat sans équivoque de l’enquête smartvote.

Projets

HUMAN

Les humains doivent s’assurer que l’IA soit au service des humains

Élections 2023

Comment ChatGPT, Bing Chat & Co. pourraient menacer la formation de l’opinion publique

FINDHR

Des algorithmes équitables dans les processus de recrutement du personnel

Publications

Série d'exemples de cas

Discrimination 2.0 : ces algorithmes qui discriminent

Mesures de qualification

Ce que les syndicats doivent savoir à propos des algorithmes sur le lieu de travail

Rapport final : recherche sur Microsoft Bing Chat

Le chatbot d’IA fournit des réponses erronées aux questions sur les élections démocratiques

Positions

Communiqué de presse

L’Europe régule l’IA en faveur des Big Tech et des partisans de la sécurité dure

Communiqué de presse

Appel de la société civile : pas d’attentisme dans la réglementation de l’IA et des systèmes de prise de décision automatisée

Systèmes de prise de décision automatisée dans le secteur public – quelques recommendations

Blog

Discrimination 2.0

Ces algorithmes qui discriminent les femmes

En bref

Comment les algorithmes discriminent, et ce que nous devrions faire pour y remédier

Communiqué de presse

‹IA› et algorithmes en Suisse : éclairage sur cette boîte noire

Stories

Algorithmes médicaux : la discrimination des Noir·es est une réalité, en Suisse aussi