#discrimination (18 résultats)

Pour les personnes trans, la transition en ligne peut tourner au chauchemar

Une simple formalité? Changer son identité en ligne est souvent un parcours semé d’embûches et une architecture de données défectueuse ne fait qu'aggraver la situation pour la communauté transgenre.

Appel au Conseil fédéral

La Drag Queen Mona Gamie: «Le shadow-banning est extrêmement problématique.»

Les algorithmes des réseaux sociaux peuvent réprimer la diversité et rendre la communauté queer invisible. La Drag Queen Mona Gamie explique dans la vidéo quelles en sont les conséquences. Soutiens dès maintenant notre appel au Conseil fédéral!

Appel au Conseil fédéral

Sébastien Kessler, membre du comité d’Inclusion Handicap: «Il faut absolument signer l’appel au Conseil fédéral.»

L'utilisation d'algorithmes et d’Intelligence artificielle peut être source de discrimination, notamment à l'encontre des personnes en situation de handicap. Sébastien Kessler, membre du comité d'Inclusion Handicap, explique dans la vidéo un cas qui s’est produit en Europe. Afin d'éviter de telles situations de discrimination en Suisse, le Conseil fédéral doit faire de la protection contre la discrimination une priorité de la régulation à venir autour de l'IA. Signe maintenant l'appel au Conseil fédéral et partage-le autour de toi!

Appel au Conseil fédéral

«Dans une société démocratique, c’est notre devoir de veiller à ce que les personnes puissent vivre sans discrimination.»

Tu savais que les algorithmes et l'IA ne sont ni neutres ni objectifs? Dans cette vidéo, Estelle Pannatier, chargée de politique et de plaidoyer chez AlgorithmWatch CH, explique comment l'utilisation d'algorithmes et d'IA peut discriminer des personnes sur la base de nombreuses caractéristiques. Mais nous pouvons faire quelque chose: signe maintenant notre appel!

Appel au Conseil fédéral

Anja Glover, experte en antiracisme: «L’IA renforce les discriminations existantes».

L'utilisation d'algorithmes et d'IA peut reproduire, amplifier et renforcer des injustices sociales existantes. Tu découvriras dans la vidéo d'Anja Glover, experte en diversité et en lutte contre le racisme, les conséquences discriminatoires que cela a déjà eu sur des personnes. AlgorithmWatch CH, avec une large coalition de signataires, appelle le Conseil fédéral à faire de la protection contre la discrimination une priorité des réglementations à venir autour de l'IA. Signe maintenant notre appel!

Appel au Conseil fédéral

Patrizia Laeri, entrepreneuse: «Aujourd’hui, nous parlons des injustices causées par les algorithmes et l’IA!»

Tu savais que l'utilisation d'algorithmes et d’Intelligence artificielle (IA) peut discriminer des personnes sur la base de leur identité de genre? Dans la vidéo, Patrizia Laeri, entrepreneuse et ancienne présentatrice de la SRF, évoque des exemples concrets. Nous voulons empêcher de tels cas en Suisse: signe dès maintenant notre appel au Conseil fédéral «Intelligence artificielle avec responsabilité... sans discrimination»!

Communiqué de presse

L’Intelligence artificielle peut discriminer: une large coalition demande au Conseil fédéral d’agir

Dans un appel lancé aujourd'hui par AlgorithmWatch CH, une large coalition de personnalités et d'organisations appelle le Conseil fédéral à prendre des mesures de protection contre la discrimination par les algorithmes et l’Intelligence artificielle. De tels cas de discrimination ont déjà fait la une de journaux internationaux.

Appel au Conseil fédéral

Intelligence artificielle avec responsabilité… sans discrimination

Les algorithmes et l’Intelligence artificielle (IA) doivent bénéficier à toutes et tous. Pour cela, nous devons nous assurer que les systèmes sont utilisés de manière responsable et qu'ils ne discriminent pas. Nous appelons donc le Conseil fédéral à faire de la protection contre la discrimination par les algorithmes une priorité de la future régulation de l'IA.

Qu’est ce que la discrimination algorithmique?

Discrimination par les algorithmes et l'Intelligence artificielle (IA): nous donnons un aperçu du sujet.

Explication

Comment et pourquoi les algorithmes discriminent

Les systèmes de prise de décision automatisée peuvent être discriminatoires. Nous expliquons quelles en sont les causes, ce qui peut se passer dans de tels cas et pourquoi les lois existantes ne protègent pas suffisamment contre la discrimination algorithmique.

Discrimination 2.0

Les algorithmes sont binaires; les personnes non

Les personnes appartenant à la communauté LGBTIQ+ sont souvent non reconnues, bloquées, ou même exclues par les algorithmes. Pour marquer le début du mois des fiertés, AlgorithmWatch CH, humanrights.ch, LOS, Pink Cross et le TGNS montrent en quoi les algorithmes discriminent les personnes LGBTIQ+.

Discrimination 2.0

Ces algorithmes qui perpétuent le racisme

L'IA et les systèmes algorithmiques peuvent désavantager des personnes en raison de leur origine, voire conduire à des discriminations raciales sur le marché du travail. A l'occasion de la Journée internationale pour l'élimination de la discrimination raciale, AlgorithmWatch CH, humanrights.ch et le National Coalition Building Institute NCBI mettent en lumière la manière dont les systèmes automatisés utilisés dans les procédures de recrutement peuvent reproduire les inégalités.

Série d'exemples de cas

Discrimination 2.0 : ces algorithmes qui discriminent

A l'aide d'exemples concrets, nous mettons en lumière la diversité des cas de discrimination algorithmique.

Discrimination 2.0

Ces algorithmes qui discriminent les femmes

Les algorithmes peuvent discriminer les femmes, tant par les images créées avec l'IA que lors de la diffusion d’offres d'emploi sur les médias sociaux, ou encore de l’octroi de prestations sociales. A l'occasion de la journée internationale des droits des femmes, AlgorithmWatch CH, humanrights.ch et alliance F mettent en lumière les discriminations fondées sur le genre qu’entraîne l'usage des algorithmes.

En bref

Comment les algorithmes discriminent, et ce que nous devrions faire pour y remédier

Dans le secteur public comme dans le secteur privé, le recours à des systèmes basés sur des algorithmes ou sur l’intelligence artificielle (IA) est de plus en plus fréquent, notamment pour établir des pronostics, formuler des recommandations ou prendre des décisions. Toutefois, leur utilisation peut entraîner des discriminations. En l’état actuel, le droit suisse en matière d’interdiction de la discrimination est insuffisant et doit être renforcé afin de protéger contre la discrimination algorithmique. Cette problématique se fraie aujourd’hui un chemin sur le plan politique.

Communiqué de presse

Intelligence artificielle : en Suisse, les algorithmes discriminent en toute impunité

Dans sa nouvelle prise de position, l'organisation de défense des droits humains AlgorithmWatch CH critique le droit suisse contre la discrimination, qui présente des lacunes évidentes en matière de protection contre la discrimination par les algorithmes. Le papier de position montre de manière détaillée comment l’Intelligence artificielle et d'autres systèmes algorithmiques peuvent conduire à de nouvelles formes de discrimination. AlgorithmWatch CH demande donc une extension du cadre juridique contre la discrimination, notamment par une interdiction générale de la discrimination pour les privés ainsi que par l’introduction de procédures de recours collectifs.

Papier de position

Discrimination par des algorithmes : comment assurer la protection ?

Lorsque des algorithmes font des pronostics, donnent des recommandations ou prennent des décisions, il y a toujours un risque qu’ils discriminent des personnes. Mais comment les algorithmes discriminent-ils exactement ? Et que devrait faire la politique pour y remédier ? Nous montrons la nécessité d’agir et proposons des solutions pour renforcer la protection contre la discrimination algorithmique.

Les algorithmes, reflets de la société

Comment les structures de pouvoir et les inégalités infiltrent les processus de décision automatisés : le point sur la question.