Publications

Explication

Montre ton visage et l’IA dira qui tu es

Les technologies de reconnaissance biométrique permettent d’identifier et de surveiller des personnes. Elles sont censées renforcer la sécurité, mais elles discriminent, menacent les droits fondamentaux et peuvent même conduire à de la surveillance de masse.

Explication

L’algorithme comme patron: comment l’IA transforme le monde du travail

Les systèmes de décision automatisée pilotent notre travail, aussi bien dans les entreprises que sur les plateformes de mise en relation. Grâce à eux, les entreprises espèrent accroître leur efficacité, mais ces procédés peuvent aussi intensifier de manière démesurée la surveillance des employé·e·s. En outre, ils camouflent souvent l’exploitation d'êtres humains et de l'environnement.

Explication

L’administration algorithmique: décisions automatisées dans le secteur public

L'automatisation de l’administration publique promet plus d’efficacité. Elle peut toutefois désavantager de nombreuses personnes, comme en témoignent des exemples à travers toute l’Europe. Dans ce guide, nous expliquons pourquoi la mise en œuvre de systèmes algorithmiques au sein des administrations publiques se révèle particulièrement délicate et comment les risques pourraient être identifiés à un stade précoce.

Explication

L’Intelligence artificielle durable: une contradiction en soi?

L’Intelligence artificielle (IA) constitue-t-elle un moyen de lutte contre la crise climatique ou, au contraire, une atteinte à l’environnement encore plus préjudiciable que les vols en avion? Nous exposons ici la quantité d’énergie que les systèmes algorithmiques consomment réellement, la raison pour laquelle nous devons disposer de mesures plus précises et la manière dont les IA peuvent devenir plus durables.

Explication

Comment et pourquoi les algorithmes discriminent

Les systèmes de prise de décision automatisée peuvent être discriminatoires. Nous expliquons quelles en sont les causes, ce qui peut se passer dans de tels cas et pourquoi les lois existantes ne protègent pas suffisamment contre la discrimination algorithmique.

Série d'exemples de cas

Discrimination 2.0: ces algorithmes qui discriminent

A l'aide d'exemples concrets, nous mettons en lumière la diversité des cas de discrimination algorithmique.

Mesures de qualification

Ce que les syndicats doivent savoir à propos des algorithmes sur le lieu de travail

En Suisse, les entreprises utilisent de plus en plus de systèmes algorithmiques sur le lieu de travail. La participation des travailleuses et travailleurs est un facteur important pour que ce changement technologique puisse avoir un effet positif sur les employé·e·s. Cette publication résume ce que les syndicats doivent savoir à propos des systèmes algorithmiques utilisés sur le lieu de travail et comment les syndicats peuvent permettre la participation des employé·e·s.

Rapport final : recherche sur Microsoft Bing Chat

Le chatbot d’IA fournit des réponses erronées aux questions sur les élections démocratiques

Bing Chat, le chatbot d’IA intégré au moteur de recherche Bing de Microsoft, invente des scandales, imagine des valeurs de sondage et indique de fausses dates d'élections. Microsoft ne semble pas être en mesure ou ne pas souhaiter remédier à ce problème. C'est ce que montre une étude menée par AlgorithmWatch et AI Forensics, dont le rapport final est désormais disponible. Nous y avons analysé le comportement de réponse du chatbot pour les élections en Suisse, en Bavière et en Hesse en octobre 2023.

Avis de droit

Comment les employé·e·s sont en mesure d’influencer l’utilisation des algorithmes sur leur lieu de travail – une perspective juridique

Les systèmes algorithmiques sont de plus en plus utilisés au travail en Suisse. Conformément au droit en vigueur, les entreprises devraient impliquer leurs employé·e·s dans certaines situations. Cela n’est toutefois pas souvent le cas. Le présent avis de droit montre quels droits ont les employé·e·s et quelles obligations reviennent aux employeurs en matière de participation du personnel. Il présente en outre les lacunes du cadre légal et explique comment elles pourraient être comblées.

Résultats intermédiaires : recherche sur Microsoft Bing Chat

Grands modèles linguistiques d’IA dans le contexte des élections

Avec quelle fiabilité le chatbot du moteur de recherche Bing de Microsoft répond-il aux questions sur les élections à venir en Suisse, en Bavière et en Hesse? Notre recherche le montre: le grand modèle linguistique GPT-4 qui le sous-tend génère et diffuse des informations inventées et trompeuses. Cela pourrait devenir un problème pour la démocratie.

Analyse de base

Les systèmes algorithmiques sur le lieu de travail – un aperçu

Les systèmes algorithmiques sur le lieu de travail peuvent avoir un impact massif sur les employé·e·s, qui devraient donc avoir leur mot à dire sur l'utilisation de ces systèmes afin de préserver leurs droits fondamentaux. Notre bref rapport montre comment les employeurs en Suisse gèrent leur responsabilité.

Les algorithmes dans le discours public suisse

AlgorithmWatch Suisse a commandé une étude sur la perception du public des systèmes ADM. L'étude a été réalisée dans le cadre d'un cours Capstone de l'Institut de sciences politiques de l'Université de Zurich.

Voilà l’édition suisse du rapport Automating Society 2020