#discrimination (25 résultats)

Explication

Automatiquement rejeté·e? Quand l’IA discrimine dans les processus de recrutement

Les systèmes d’aide au recrutement basés sur l’IA permettent de présélectionner et d’évaluer les candidatures ou de recommander des candidat·e·s. Ces systèmes algorithmiques peuvent faire gagner du temps aux responsables RH, mais présentent également un risque de discrimination systémique, souvent difficile à identifier.

Article

Réseaux sociaux et IA: comment protéger les enfants et les jeunes?

À l'occasion de la Journée internationale des droits de l'enfant, nous mettons en lumière les débats actuels sur les effects des réseaux sociaux et de l'intelligence artificielle sur les enfants et les jeunes. Nous montrons pourquoi le débat ne devrait pas se limiter à la question d'une interdiction des réseaux sociaux et comment mieux protéger les enfants et les jeunes.

Protection contre la discrimination: conditions-cadres pour la sélection automatisée du personnel

Les systèmes algorithmiques et basés sur l'IA sont de plus en plus utilisés dans le recrutement, par exemple pour présélectionner les CV. Ce faisant, des candidat·e·s peuvent être discriminé·e·s, comme le montrent des expériences en la matière. Notre projet de recherche conclut qu'il est nécessaire d'améliorer les conditions-cadres.

Guide

Réglementation de l’IA: que fait la Suisse?

En Suisse, il est de plus en plus question de réglementer l'IA. Dans ce guide, nous mettons en lumière les développements politiques actuels.

Petite icône informatique de style pixel

Signaler une discrimination algorithmique!

Lorsque nous demandons un crédit en ligne ou que nous postulons pour un logement ou un emploi, les entreprises traitent de plus en plus souvent nos données à l'aide de systèmes de décision automatisée. Les décisions prises par ces systèmes ont un impact sur notre vie. Or, ces systèmes ne sont pas neutres et peuvent reproduire les préjugés présents dans la société. Que pouvons-nous faire pour que des systèmes automatisés opaques ne désavantagent pas les personnes? Nous devons rendre la discrimination algorithmique visible, et tu peux nous aider à le faire!

Arrêt du Tribunal fédéral sur la surveillance du trafic

Surveillance du trafic: le Tribunal fédéral freine la collecte automatisée de données

La Tribunal fédéral a annulé plusieurs dispositions de la loi cantonale sur la police adoptée en 2022 par le Grand Conseil lucernois autorisant des mesures de surveillance du trafic et de collecte de données par la recherche automatisée de véhicules. Cet arrêt renforce la protection de la sphère privée et met des limites aux législations cantonales en matière de surveillance policière.

Briefing

Quand les algorithmes et l’IA (co)décident: protéger les droits fondamentaux

Le Conseil fédéral veut ratifier la Convention sur l’intelligence artificielle du Conseil de l'Europe. Nous présentons dans un nouveau briefing les éléments à prendre en compte lors de la réglementation de l'IA, afin que les algorithmes et l'IA soient utilisés de manière compréhensible, responsable et dans le respect des droits fondamentaux lorsqu'ils influencent des décisions concernant des personnes.

Explication

Montre ton visage et l’IA dira qui tu es

Les technologies de reconnaissance biométrique permettent d’identifier et de surveiller des personnes. Elles sont censées renforcer la sécurité, mais elles discriminent, menacent les droits fondamentaux et peuvent même conduire à de la surveillance de masse.

Entretien avec Moira Daviet

La discrimination algorithmique dans le monde du travail

Lorsque l’IA est utilisée dans les procédures de recrutement, elle peut entraîner des discriminations. Dans le cadre du projet Horizon Europe FINDHR, des recherches sont menées sur les moyens de lutter contre ce type de discrimination.

Communiqués de presse

Réglementation de l’IA: un Conseil fédéral timide

Le Conseil fédéral veut réglementer l’Intelligence artificielle. La décision de principe qu’il a prise aujourd’hui va dans la bonne direction, mais c’est un pas timide et peu ambitieux. Un jour après le Sommet pour l'action sur l’IA de Paris et à une époque où la concentration du pouvoir au sein des groupes technologiques et de leurs propriétaires a pris des proportions inquiétantes, le Conseil fédéral devrait agir de manière plus déterminée et mettre les intérêts de la population au centre, pour protéger de manière globale les droits fondamentaux, la démocratie et la durabilité en lien avec l'utilisation de l'IA. AlgorithmWatch CH présente les mesures qui seraient nécessaires à cet effet de manière détaillée dans sa propre analyse.

Papier de position

Quelle IA voulons-nous? Conditions-cadres pour les algorithmes et l’Intelligence artificielle

Le Conseil fédéral analyse d'ici fin 2024 les besoins de réglementation en lien avec l'IA et prendra sur cette base d'éventuelles mesures l'année prochaine. Nous résumons ici les éléments que le Conseil fédéral et le Parlement devraient prendre en compte du point de vue des droits fondamentaux, de la démocratie et de la durabilité.

Discrimination 2.0

Comment l’Intelligence artificielle peut désavantager les enfants

L'Intelligence artificielle peut avoir des conséquences à long terme sur les perspectives et les conditions de vie des enfants et des jeunes. À l'occasion de la Journée internationale des droits de l'enfant du 20 novembre, AlgorithmWatch CH, humanrights.ch, Pro Juventute et UNICEF Suisse et Liechtenstein mettent en lumière la manière dont les algorithmes et l'IA peuvent renforcer les inégalités qui touchent les enfants.

Discrimination 2.0

Ces algorithmes qui entravent la vie des personnes en situation de pauvreté

Les algorithmes et les systèmes d'IA peuvent renforcer les inégalités induites par la précarité, voire créer de nouvelles discriminations. À l'occasion de la Journée internationale pour l'élimination de la pauvreté, AlgorithmWatch CH et humanrights.ch mettent en lumière la manière dont les algorithmes peuvent mettre encore plus de bâtons dans les roues des personnes en situation de précarité.

Communiqué de presse

Le Conseil fédéral toujours plus sous pression sur l’IA

Au nom d'une large coalition, AlgorithmWatch CH a remis ce mardi au Conseil fédéral une pétition sur l’Intelligence artificielle. Quelque 45 organisations appellent le Conseil fédéral à faire de la protection contre la discrimination une priorité des réglementations à venir autour de l'IA. Des parlementaires de six partis soutiennent cette demande et un grand nombre a participé à la remise.

Pour les personnes trans, la transition en ligne peut tourner au chauchemar

Une simple formalité? Changer son identité en ligne est souvent un parcours semé d’embûches et une architecture de données défectueuse ne fait qu'aggraver la situation pour la communauté transgenre.

Appel au Conseil fédéral

La Drag Queen Mona Gamie: «Le shadow-banning est extrêmement problématique.»

Les algorithmes des réseaux sociaux peuvent réprimer la diversité et rendre la communauté queer invisible. La Drag Queen Mona Gamie explique dans la vidéo quelles en sont les conséquences. Soutiens dès maintenant notre appel au Conseil fédéral!

Appel au Conseil fédéral

Sébastien Kessler, membre du comité d’Inclusion Handicap: «Il faut absolument signer l’appel au Conseil fédéral.»

L'utilisation d'algorithmes et d’Intelligence artificielle peut être source de discrimination, notamment à l'encontre des personnes en situation de handicap. Sébastien Kessler, membre du comité d'Inclusion Handicap, explique dans la vidéo un cas qui s’est produit en Europe. Afin d'éviter de telles situations de discrimination en Suisse, le Conseil fédéral doit faire de la protection contre la discrimination une priorité de la régulation à venir autour de l'IA. Signe maintenant l'appel au Conseil fédéral et partage-le autour de toi!

Appel au Conseil fédéral

«Dans une société démocratique, c’est notre devoir de veiller à ce que les personnes puissent vivre sans discrimination.»

Tu savais que les algorithmes et l'IA ne sont ni neutres ni objectifs? Dans cette vidéo, Estelle Pannatier, chargée de politique et de plaidoyer chez AlgorithmWatch CH, explique comment l'utilisation d'algorithmes et d'IA peut discriminer des personnes sur la base de nombreuses caractéristiques. Mais nous pouvons faire quelque chose: signe maintenant notre appel!

Appel au Conseil fédéral

Anja Glover, experte en antiracisme: «L’IA renforce les discriminations existantes».

L'utilisation d'algorithmes et d'IA peut reproduire, amplifier et renforcer des injustices sociales existantes. Tu découvriras dans la vidéo d'Anja Glover, experte en diversité et en lutte contre le racisme, les conséquences discriminatoires que cela a déjà eu sur des personnes. AlgorithmWatch CH, avec une large coalition de signataires, appelle le Conseil fédéral à faire de la protection contre la discrimination une priorité des réglementations à venir autour de l'IA. Signe maintenant notre appel!

Appel au Conseil fédéral

Patrizia Laeri, entrepreneuse: «Aujourd’hui, nous parlons des injustices causées par les algorithmes et l’IA!»

Tu savais que l'utilisation d'algorithmes et d’Intelligence artificielle (IA) peut discriminer des personnes sur la base de leur identité de genre? Dans la vidéo, Patrizia Laeri, entrepreneuse et ancienne présentatrice de la SRF, évoque des exemples concrets. Nous voulons empêcher de tels cas en Suisse: signe dès maintenant notre appel au Conseil fédéral «Intelligence artificielle avec responsabilité... sans discrimination»!

Communiqué de presse

L’Intelligence artificielle peut discriminer: une large coalition demande au Conseil fédéral d’agir

Dans un appel lancé aujourd'hui par AlgorithmWatch CH, une large coalition de personnalités et d'organisations appelle le Conseil fédéral à prendre des mesures de protection contre la discrimination par les algorithmes et l’Intelligence artificielle. De tels cas de discrimination ont déjà fait la une de journaux internationaux.

Appel au Conseil fédéral

Intelligence artificielle avec responsabilité… sans discrimination

Les algorithmes et l’Intelligence artificielle (IA) doivent bénéficier à toutes et tous. Pour cela, nous devons nous assurer que les systèmes sont utilisés de manière responsable et qu'ils ne discriminent pas. Nous appelons donc le Conseil fédéral à faire de la protection contre la discrimination par les algorithmes une priorité de la future régulation de l'IA.

Dossier thématique

Qu’est ce que la discrimination algorithmique?

Discrimination par les algorithmes et l'Intelligence artificielle (IA): nous donnons un aperçu du sujet.

Explication

Comment et pourquoi les algorithmes discriminent

Les systèmes de prise de décision automatisée peuvent être discriminatoires. Nous expliquons quelles en sont les causes, ce qui peut se passer dans de tels cas et pourquoi les lois existantes ne protègent pas suffisamment contre la discrimination algorithmique.

Discrimination 2.0

Les algorithmes sont binaires: les personnes non

Les personnes appartenant à la communauté LGBTIQ+ sont souvent non reconnues, bloquées, ou même exclues par les algorithmes. Pour marquer le début du mois des fiertés, AlgorithmWatch CH, humanrights.ch, LOS, Pink Cross et le TGNS montrent en quoi les algorithmes discriminent les personnes LGBTIQ+.

Page 1 de 2