Report algorithmic discrimination!
Signaler un cas
Signaler un cas

Signaler une discrimination algorithmique!

AlgorithmWatch CH mène des recherches pour montrer où et comment la discrimination algorithmique peut se produire. As-tu des raisons de penser qu'une discrimination algorithmique a pu avoir lieu? Alors signale-la nous. Nous souhaitons examiner l’ampleur du problème et déterminer quels types de dommages les systèmes automatisés peuvent provoquer. Tes indications peuvent nous aider à rendre la discrimination algorithmique plus visible et à plaider en faveur d’une réglementation adaptée.

Tu aimerais en savoir plus à ce sujet? Ici, nous examinons les causes de la discrimination algorithmique et expliquons pourquoi il est nécessaire de mieux s’en protéger.

Qu’est-ce que la discrimination algorithmique?

Les institutions utilisent des systèmes de décision algorithmique dans toutes sortes de domaines: pour traiter des déclarations d’impôts, évaluer des candidatures, faire des recommandations, «prédire» des délits ou encore calculer la probabilité d’intégration des persones réfugiées sur le marché du travail. Les systèmes ne sont cependant en aucun cas neutres. Leur mode de fonctionnement est influencé par les êtres humains, leurs préjugés et leurs intérêts. C’est pourquoi les systèmes peuvent reproduire les modèles de discrimination présents dans la société. C’est ce que l’on appelle la discrimination algorithmique. Tu trouveras d’autres informations sur le sujet ici.

Que puis-je faire si je crois avoir fait l’objet d’une discrimination par un système algorithmique?

Signale-nous l'incident! Nous aiderons à mener une enquête plus approfondie. Plus ces incidents seront rendus publics, plus les personnes qui ont conscience du problème seront nombreuses et plus elles sauront ce que nous pouvons faire pour lutter contre la discrimination algorithmique. Si une prise de conscience publique a lieu, nous pourrons mieux nous engager en faveur de mesures de protection et exercer une pression sur les politiques pour les inciter à passer à l’action.

Par ailleurs, les centres de consultation peuvent déterminer la présence ou non d’une discrimination. Dans certains cas, il peut également être judicieux de s’adresser à des organisations de protection des consommateur·rice·s.

Les cas de discrimination ne peuvent pas toujours être portés devant le tribunal. La Constitution fédérale suisse garantit l’égalité et interdit toute discrimination. De plus, elle garantit l’égalité entre les hommes et les femmes ainsi que le droit à un salaire égal pour un travail équivalent. Elle prévoit également des mesures visant à éliminer les inégalités dont sont victimes les personnes en situation de handicap.

Cependant, il n’existe pas, en Suisse, de législation générale contre les discriminations, c’est-à-dire une loi qui protégerait tous les groupes de personnes touchées par des discriminations. Dans le domaine privé, il n’existe pas non plus d’interdiction de discrimination générale. Le droit pénal suisse prévoit toutefois une norme contre la discrimination fondée sur l'appartenance raciale, ethnique ou religieuse ou de sur orientation sexuelle (art. 261bis du CP).

Dans quels domaines les systèmes de prise de décision automatisée pourraient-ils entraîner des désavantages?

Les systèmes de prise de décision automatisée sont quasiment partout aujourd’hui. Le choix d’un paiement échelonné, par exemple dans une boutique en ligne, déclenche généralement une vérification de solvabilité. Les entreprises utilisent de plus en plus souvent des algorithmes pour prendre des décisions en matière de personnel et coordonner les processus de travail. Les autorités utilisent parfois les algorithmes de manière visible et parfois, en arrière-plan: dans les avis d’impôts, dans l’attribution de places en crèche, dans les activités de la police ou encore dans le domaine de la justice.

Un traitement inégal peut généralement uniquement être mis au jour lorsque des personnes différentes ont eu des expériences différentes avec le même système. Si un prix différent est proposé à diverses personnes pour un même service ou si une demande est rejetée alors qu’une demande similaire a été acceptée, cela pourrait être dû à une prise de décision automatisée qui évaluerait les données de façon différente. Si, par exemple, la probabilité de déclarer un sinistre à l’assurance est automatiquement considérée comme plus élevée, cela peut entraîner une augmentation de prix. Cela peut bien sûr aussi arriver lorsque ce sont des personnes qui traitent les demandes. Notre tâche ici serait de déterminer si des systèmes automatisés prennent systématiquement des décisions injustes et si de nombreuses personnes pourraient en être affectées.

Souvent, la discrimination n’est pas immédiatement identifiable. Par exemple, si la police utilisait un outil pour établir automatiquement un plan de patrouilles sur la base de certaines statistiques de criminalité, des parties de la ville pourraient être plus ciblées que d’autres. Les personnes extérieures ne penseraient pas forcément qu’un système automatisé puisse entraîner l’augmentation de la présence de police dans une zone donnée.

Quelles sont les informations nécessaires à l’examen de mon cas?

Tu peux nous décrire ton expérience et nous expliquer brièvement pourquoi tu as perçu la situation comme injuste ou discriminatoire. Tu peux également importer des fichiers qui documentent le cas ou contribuent à l’éclairer, par exemple, des photos de courriers ou des captures d’écran de sites Internet, de formulaires ou d’applications web. Tu peux aussi nous envoyer un court message vocal ou une vidéo pour nous exposer ton cas.

Le message que tu nous envoies pourrait ressembler à cela:

«Chère équipe d’AlgorithmWatch CH,

Récemment, j’ai rempli un formulaire en ligne pour mon assurance X. J’ai ensuite reçu une offre dans laquelle le tarif proposé était plus élevé que celui que paie une personne que je connais. Je crois que le système de tarification automatisé se fonde sur les données de mon profil et anticipe un risque de préjudice plus important. Ma situation personnelle est la suivante…»

Attention: les discriminations algorithmiques sont différentes des discriminations humaines et ainsi elles ne sont pas toujours reconnaissables d’emblée. Un système peut donc tirer des conclusions erronées à partir de certaines données à caractère personnel ou établir un classement selon des catégories spécifiques qui pourraient être discriminatoires, comme «femmes propriétaires de chien de plus de 40 ans vivant dans la zone avec le numéro postal d’acheminement 0000». Il est donc capital de tenir compte de toutes les informations que tu as fournies, par exemple dans un formulaire ou lors d’une commande.

Que fait AlgorithmWatch CH de mon message?

Nous nous engageons en tant qu’organisation à ce que les algorithmes et l’intelligence artificielle (IA) renforcent la justice, la démocratie, les droits humains et la durabilité, plutôt que de les compromettre. Nous procédons à des enquêtes journalistiques, menons une recherche académique et plaidons pour une meilleure protection contre la discrimination algorithmique. Cela implique notamment de responsabiliser les entreprises, d’attirer l’attention des médias et du public sur les problèmes et de rappeler aux personnalités politiques qu’elles doivent garantir le respect des droits fondamentaux. Tes expériences personnelles nous aident à convaincre les opérateur·rice·s de systèmes discriminatoires de procéder aux corrections nécessaires et à plaider pour la réglementation nécessaire.

Comment AlgorithmWatch CH peut-elle m’aider?

AlgorithmWatch CH offre un premier point de contact en cas de discrimination algorithmique et détermine ce qui se cache derrière ce phénomène. Nous examinons des cas de discrimination potentielle lorsque nous recevons des indications selon lesquelles l’utilisation de systèmes d’IA entraînerait une injustice. AlgorithmWatch CH n’est toutefois pas un centre de consultation officiel et ne peut pas donner d’avis juridique. Nous recommandons donc de toujours contacter les centres de consultation qui proposent des conseils juridiques. Nous mettons à ta disposition une liste de centres de consultation auxquels tu peux t’adresser en Suisse. Nos collègues d’AlgorithmWatch aident les personnes domiciliées en Allemagne et dans l’UE.

Comment AlgorithmWatch CH traite-t-elle mes données?

Les données à caractère personnel telles que ton nom, ton adresse e-mail ou ton numéro de téléphone ne seront utilisées que pour communiquer avec toi. Il est toujours possible de décrire un cas de manière anonyme, d’utiliser un pseudonyme ou de refuser une nouvelle prise de contact. Nous te prions donc d’indiquer tes préférences dans notre formulaire et de nous dire si et/ou dans quelle mesure nous pouvons utiliser les informations que tu auras fournies. Nous devons respecter la confidentialité de toutes les personnes impliquées et te prions donc de ne pas nous transmettre de données d’autrui. Tu trouveras plus des informations détaillées dans notre politique de confidentialité (en allemand).

Des restrictions géographiques s’appliquent-elles à la déclaration de cas potentiels?

L’équipe d’AlgorithmWatch CH s’occupe des cas en Suisse, tandis que notre équipe en Allemagne gère des cas issus de l’ensemble de l’UE. Si un cas est survenu ailleurs ou si tu n’es pas sûr·e de devoir signaler l’incident, n’hésite pas à nous contacter. Nous saurons peut-être quels points de contact pourraient t’aider grâce à leur expertise régionale. Tu trouveras les différentes coordonnées en bas de cette page.

Parle de notre campagne autour de toi et partage-la sur

Souhaites-tu obtenir des informations sur notre combat contre la discrimination algorithmique et les autres projets d’AlgorithmWatch CH? Alors tu peux t’abonner à notre newsletter ici.