#discrimination (8 résultats)

Discrimination 2.0

Ces algorithmes qui perpétuent le racisme

L'IA et les systèmes algorithmiques peuvent désavantager des personnes en raison de leur origine, voire conduire à des discriminations raciales sur le marché du travail. A l'occasion de la Journée internationale pour l'élimination de la discrimination raciale, AlgorithmWatch CH, humanrights.ch et le National Coalition Building Institute NCBI mettent en lumière la manière dont les systèmes automatisés utilisés dans les procédures de recrutement peuvent reproduire les inégalités.

Série d'exemples de cas

Discrimination 2.0: ces algorithmes qui discriminent

A l'aide d'exemples concrets, nous mettons en lumière la diversité des cas de discrimination algorithmique.

Discrimination 2.0

Ces algorithmes qui discriminent les femmes

Les algorithmes peuvent discriminer les femmes, tant par les images créées avec l'IA que lors de la diffusion d’offres d'emploi sur les médias sociaux, ou encore de l’octroi de prestations sociales. A l'occasion de la journée internationale des droits des femmes, AlgorithmWatch CH, humanrights.ch et alliance F mettent en lumière les discriminations fondées sur le genre qu’entraîne l'usage des algorithmes.

En bref

Comment les algorithmes discriminent, et ce que nous devrions faire pour y remédier

Dans le secteur public comme dans le secteur privé, le recours à des systèmes basés sur des algorithmes ou sur l’intelligence artificielle (IA) est de plus en plus fréquent, notamment pour établir des pronostics, formuler des recommandations ou prendre des décisions. Toutefois, leur utilisation peut entraîner des discriminations. En l’état actuel, le droit suisse en matière d’interdiction de la discrimination est insuffisant et doit être renforcé afin de protéger contre la discrimination algorithmique. Cette problématique se fraie aujourd’hui un chemin sur le plan politique.

Communiqué de presse

Intelligence artificielle: en Suisse, les algorithmes discriminent en toute impunité

Dans sa nouvelle prise de position, l'organisation de défense des droits humains AlgorithmWatch CH critique le droit suisse contre la discrimination, qui présente des lacunes évidentes en matière de protection contre la discrimination par les algorithmes. Le papier de position montre de manière détaillée comment l’Intelligence artificielle et d'autres systèmes algorithmiques peuvent conduire à de nouvelles formes de discrimination. AlgorithmWatch CH demande donc une extension du cadre juridique contre la discrimination, notamment par une interdiction générale de la discrimination pour les privés ainsi que par l’introduction de procédures de recours collectifs.

Papier de position

Discrimination par des algorithmes: comment assurer la protection?

Lorsque des algorithmes font des pronostics, donnent des recommandations ou prennent des décisions, il y a toujours un risque qu’ils discriminent des personnes. Mais comment les algorithmes discriminent-ils exactement? Et que devrait faire la politique pour y remédier? Nous montrons la nécessité d’agir et proposons des solutions pour renforcer la protection contre la discrimination algorithmique.

Projet «FINDHR»

Just Hiring! Comment éviter la discrimination par les algorithmes dans les processus de recrutement

Une IA qui présélectionne les candidatures à un emploi? Dans le cadre du projet Horizon Europe «FINDHR», nous avons développé des algorithmes, des méthodes et des formations visant à réduire la discrimination lorsque l’IA est utilisée dans le recrutement. Voici nos résultats.

Les algorithmes, reflets de la société

Comment les structures de pouvoir et les inégalités infiltrent les processus de décision automatisés: le point sur la question.

Page 2 de 2