Nouvelles

Petite icône informatique de style pixel

Signaler une discrimination algorithmique!

Lorsque nous demandons un crédit en ligne ou que nous postulons pour un logement ou un emploi, les entreprises traitent de plus en plus souvent nos données à l'aide de systèmes de décision automatisée. Les décisions prises par ces systèmes ont un impact sur notre vie. Or, ces systèmes ne sont pas neutres et peuvent reproduire les préjugés présents dans la société. Que pouvons-nous faire pour que des systèmes automatisés opaques ne désavantagent pas les personnes? Nous devons rendre la discrimination algorithmique visible, et tu peux nous aider à le faire!

Arrêt du Tribunal fédéral sur la surveillance du trafic

Surveillance du trafic: le Tribunal fédéral freine la collecte automatisée de données

La Tribunal fédéral a annulé plusieurs dispositions de la loi cantonale sur la police adoptée en 2022 par le Grand Conseil lucernois autorisant des mesures de surveillance du trafic et de collecte de données par la recherche automatisée de véhicules. Cet arrêt renforce la protection de la sphère privée et met des limites aux législations cantonales en matière de surveillance policière.

Lettre ouverte au Conseil fédéral

Notre démocratie a besoin de règles pour les réseaux sociaux et les moteurs de recherche

Les algorithmes et l’Intelligence artificielle (IA) doivent bénéficier à toutes et tous. Pour cela, nous devons nous assurer que les systèmes sont utilisés de manière responsable et qu'ils ne discriminent pas. Nous appelons donc le Conseil fédéral à faire de la protection contre la discrimination par les algorithmes une priorité de la future régulation de l'IA.

Entretien avec Moira Daviet

La discrimination algorithmique dans le monde du travail

Lorsque l’IA est utilisée dans les procédures de recrutement, elle peut entraîner des discriminations. Dans le cadre du projet Horizon Europe FINDHR, des recherches sont menées sur les moyens de lutter contre ce type de discrimination.

Un coup d’œil sur 2024

Notre engagement constant pour les droits fondamentaux, la démocratie et la durabilité porte ses fruits. Un succès que nous devons aussi aux personnes qui nous ont soutenues. Ensemble, nous avons fait bouger les choses en 2024! Nous jetons un bref regard en arrière, car ce que nous avons réalisé ensemble ne nous donne pas seulement de l'espoir.

Forum des 100

Le Temps distingue Estelle Pannatier d’AlgorithmWatch CH

Depuis 20 ans, Le Temps nomine chaque année cent personnalités qui font la Suisse romande. Cette année, Estelle Pannatier, chargée de politique et de plaidoyer chez AlgorithmWatch CH, fait partie des nominé·e·s.

Communiqué de presse

Le Conseil fédéral toujours plus sous pression sur l’IA

Au nom d'une large coalition, AlgorithmWatch CH a remis ce mardi au Conseil fédéral une pétition sur l’Intelligence artificielle. Quelque 45 organisations appellent le Conseil fédéral à faire de la protection contre la discrimination une priorité des réglementations à venir autour de l'IA. Des parlementaires de six partis soutiennent cette demande et un grand nombre a participé à la remise.

Exposition «Histoire de la Suisse»

AlgorithmWatch CH au Musée national suisse

Dans le cadre d'une exposition permanente, le Musée national suisse met en lumière cinq tendances du 21e siècle pertinentes pour la Suisse, dont l’Intelligence artificielle. Angela Müller d'AlgorithmWatch CH en fait partie.

Appel au Conseil fédéral

Intelligence artificielle avec responsabilité… sans discrimination

Les algorithmes et l’Intelligence artificielle (IA) doivent bénéficier à toutes et tous. Pour cela, nous devons nous assurer que les systèmes sont utilisés de manière responsable et qu'ils ne discriminent pas. Nous appelons donc le Conseil fédéral à faire de la protection contre la discrimination par les algorithmes une priorité de la future régulation de l'IA.

Qu’est ce que la discrimination algorithmique?

Discrimination par les algorithmes et l'Intelligence artificielle (IA): nous donnons un aperçu du sujet.

Interview avec un syndicaliste

«Lorsque les employeurs réalisent que les systèmes algorithmiques ne fonctionnent qu’avec l’acceptation des travailleur·euse·s, ils se montrent ouverts à les impliquer.»

L'utilisation d'algorithmes et d'Intelligence artificielle par les entreprises, par exemple pour la gestion des contrôles et des performances ou pour l'optimisation des processus, peut avoir des répercussions massives sur les employé·e·s. Daniel Hügli, membre du comité directeur et responsable du secteur ICT du syndicat syndicom, explique dans une interview comment les syndicats et les employeurs réagissent à ce sujet.

Série d'exemples de cas

Discrimination 2.0: ces algorithmes qui discriminent

A l'aide d'exemples concrets, nous mettons en lumière la diversité des cas de discrimination algorithmique.

Protection des travailleuses et travailleurs

L’Intelligence artificielle change le monde du travail. Que fait la Suisse?

Les applications d'IA sont omniprésentes dans le quotidien professionnel de nombreuses personnes, une réalité qui s’est renforcée depuis le déploiement de ChatGPT. Mais les employeurs utilisent également des outils d'IA à d'autres fins, par exemple pour gérer le personnel. Cela comporte des risques. Grâce à deux membres du Conseil national, la politique commence à prendre conscience de ces défis.

Mis en lumière

Un patchwork algorithmique dans les administrations suisses

Les administrations publiques utilisent des systèmes algorithmiques qui ont une influence sur les décisions concernant les individus. Où et pourquoi sont-ils utilisés? Nous avons posé cette question aux 26 chancelleries cantonales et analysé leurs réponses. Spoiler: de nombreux cantons ne sont pas en mesure de fournir des informations complètes sur les systèmes qu'ils utilisent.

Communiqué de presse

‹IA› et algorithmes en Suisse: éclairage sur cette boîte noire

Les systèmes algorithmiques et l’Intelligence artificielle (IA) sont actuellement sur toutes les lèvres. Pendant que tout le monde parle de ChatGPT, on oublie que l'automatisation est déjà largement étendue en Suisse: de plus en plus de décisions concernant les personnes sont influencées par des algorithmes. Mais où, par qui et dans quel but ces derniers sont utilisés reste en grande partie une boîte noire. Avec l'Atlas de l'automatisation, AlgorithmWatch CH apporte un éclairage sur le sujet - et publie un aperçu des systèmes algorithmiques utilisés en Suisse.

Analytics for the People

Que fait ton employeur avec tes données?

T'es-tu déjà demandé quels systèmes algorithmiques pourraient être utilisés sur ton lieu de travail? Sais-tu quel impact cela peut avoir sur toi et ton travail? Nous te proposons une check-list pour évaluer comment tu pourrais toi-même être concerné·e.

En bref

Le Conseil de l’Europe instaure un cadre pour l’Intelligence artificielle

Outre l'UE, le Conseil de l'Europe à Strasbourg réglemente également l’Intelligence artificielle avec la Convention sur l’IA, le premier traité international sur l’IA. Dans ce guide, nous expliquons ce que cela implique, pourquoi c'est important pour nous touxtes et quelles sont les prochaines étapes.

La reconnaissance biométrique dans les lieux publics – une menace pour les droits humains

Dans les aéroports, les stades de foot ou dans le cadre de poursuite pénale, la reconnaissance faciale et d’autres systèmes de reconnaissance biométrique sont de plus en plus employés en Suisse. Lorsqu’ils sont utilisés à des fins d’identification dans les lieux accessibles au public, ces systèmes sont incompatibles avec les droits fondamentaux et les droits humains, notamment le droit à la sphère privée, la liberté d’expression et de rassemblement, et l’interdiction de discriminer.

Succès: Lausanne interdit la reconnaissance faciale dans l’espace public!

Le Conseil communal de Lausanne a adopté le 28 mars 2023 à l’unanimité des interventions parlementaires visant à interdire la vidéosurveillance avec reconnaissance biométrique. Lausanne devrait ainsi devenir la première ville de Suisse romande à interdire la reconnaissance faciale & co. dans l’espace public.

Guide

Réglementation des plateformes en ligne: que fait la Suisse?

Alors que l'Union européenne (UE) a déjà décidé de réglementer les plateformes en ligne, la Suisse commence seulement s'atteler à la tâche. Dans cet article, nous mettons en lumière les développements politiques actuels.

Communiqué de presse

Lettre ouverte remise aux CFF avec 17069 signatures

AlgorithmWatch CH et la Société numérique ont remis aujourd'hui une lettre ouverte aux CFF. Au nom de 17'069 personnes et de seize organisations de la société civile et partis politiques, elles protestent ainsi contre le projet initial des CFF de mettre en place un système de mesure pour la surveillance étendue des voyageuses et voyageurs dans plus de 50 gares.

Grands succès pour l’interdiction de la reconnaissance faciale automatisée dans l’espace public

Notre engagement contre la surveillance biométrique de masse a été couronné de succès: dans de nombreuses villes et quelques cantons, nous avons lancé le débat politique sur l'interdiction de la reconnaissance faciale automatisée. Une motion dans ce sens vient d'être déposée dans le canton de Zurich. Des villes comme Saint-Gall ou Zurich montrent même l'exemple et ont déjà décidé d'une telle interdiction.

Communiqué de presse

Pour davantage de droits de participation lors de l’utilisation d’algorithmes dans le monde du travail

AlgorithmWatch CH lance un projet commun de concert avec le syndicat syndicom. Il vise à permettre aux employé·e·s de défendre leurs droits et d’en déduire des possibilités concrètes d’action lorsque des algorithmes sont utilisés sur leur lieu de travail.

Contribution d’opinion dans Le Temps: Pourquoi la liberté numérique a besoin de nous tous, de manière analogique

Pour Anna Mätzener, d’AlgorithmWatch Suisse, la société civile doit s’investir pour obtenir plus de transparence dans l’usage des algorithmes et garantir une liberté numérique qui n’est que le reflet de nos libertés dans le monde réel.

Communiqué de presse

Plus de 10 000 personnes contre la reconnaissance faciale automatisée!

L’alliance « Stop à la reconnaissance faciale » a adressé cette semaine une pétition aux autorités contre la reconnaissance faciale automatisée. Plus de 10 000 signataires réclament une interdiction de la surveillance massive par des systèmes de reconnaissance biométrique.