Geschlechtsangleichende Transition: Auch im digitalen Leben schwierigNur eine Formalität? Für die Transgender-Community ist der Wechsel der Online-Identität kein simpler Verwaltungsakt. Eine mangelhafte Datenarchitektur macht es nur schlimmer.
Appell an den Bundesrat Draq Queen Mona Gamie: «Shadow-Banning ist extrem problematisch.»Social-Media-Algorithmen können Vielfalt unterdrücken und die queere Community unsichtbar machen. Welche gesellschaftlichen Folgen das hat, erläutert Draq Queen Mona Gamie im Video. Unterstütze jetzt unseren Appell an den Bundesrat!
Appell an den Bundesrat Inclusion Handicap Vorstandsmitglied Sébastien Kessler: «Der Appell an den Bundesrat muss unbedingt unterzeichnet werden.»Der Einsatz von Algorithmen und Künstlicher Intelligenz kann Menschen diskriminieren, so etwa Menschen mit Behinderungen. Ein Fallbeispiel aus Europa erläutert Inclusion Handicap Vorstandsmitglied Sébastien Kessler im Video. Um solche Fälle von Diskriminierung in der Schweiz zu verhindern, muss der Bundesrat den Schutz vor Diskriminierung zu einer Priorität der kommenden Regulierungen rund um KI machen. Unterzeichne jetzt den Appell an den Bundesrat und teile ihn in deinem Umfeld!
Appell an den Bundesrat «Als demokratische Gesellschaft haben wir die Aufgabe, Menschen vor Diskriminierung zu schützen.»Hast du gewusst, dass Algorithmen und KI nicht per se neutral und objektiv sind? Im Video erläutert Angela Müller, Geschäftsleiterin AlgorithmWatch CH, inwiefern der Einsatz von Algorithmen & KI aufgrund von vielen unterschiedlichen Merkmalen diskriminieren kann. Doch wir können etwas tun: Unterzeichne jetzt unseren Appell!
Appell an den Bundesrat Antirassismus-Expertin Anja Glover: «KI verstärkt bestehende Diskriminierungen»Der Einsatz von Algorithmen und KI kann bestehende gesellschaftliche Ungerechtigkeiten übernehmen, vervielfachen und verfestigen. Welche diskriminierenden Folgen das bereits für Menschen hatte, erfährst du im Video mit Diversity- und Antirassimus-Expertin Anja Glover. AlgorithmWatch CH ruft mit einer breiten Koalition von Unterstützer*innen nun den Bundesrat dazu auf, den Schutz vor Diskriminierung zu einer Priorität der kommenden Regulierungen rund um KI machen. Unterzeichne jetzt unseren Appell!
Appell an den Bundesrat Unternehmerin Patrizia Laeri: «Heute reden wir über Ungerechtigkeiten durch Algorithmen und KI!»Hast du gewusst, dass der Einsatz von Algorithmen und Künstlicher Intelligenz (KI) Menschen unter anderem aufgrund ihrer Geschlechtsidentität diskriminieren kann? Im Video nennt Patrizia Laeri, Unternehmerin und frühere SRF-Moderatorin, konkrete Fallbeispiele. Solche Fälle wollen wir in der Schweiz verhindern: Unterzeichne jetzt unseren Appell «Künstliche Intelligenz mit Verantwortung… ohne Diskriminierung» an den Bundesrat!
Medienmitteilung Künstliche Intelligenz kann diskriminieren: Breite Koalition fordert Bundesrat zum Handeln aufIn einem heute von AlgorithmWatch CH initiierten Appell ruft eine breite Koalition von prominenten Persönlichkeiten und Organisationen den Bundesrat dazu auf, Massnahmen zum Schutz vor Diskriminierung durch Algorithmen und Künstliche Intelligenz zu ergreifen. International haben Fälle solcher Diskriminierungen bereits für Schlagzeilen gesorgt.
Appell an den Bundesrat Künstliche Intelligenz mit Verantwortung … ohne DiskriminierungAlgorithmen und Künstliche Intelligenz (KI) sollen uns allen zugutekommen. Dafür müssen wir sicherstellen, dass die Systeme verantwortungsvoll eingesetzt werden – und keine Menschen diskriminieren. Wir rufen den Bundesrat deshalb dazu auf, den Schutz vor Diskriminierung durch Algorithmen zu einer Priorität der kommenden Regulierungen rund um KI zu machen.
Was ist algorithmische Diskriminierung?Diskriminierung durch Algorithmen und Künstliche Intelligenz (KI): Wir geben einen Überblick über das Thema.
Einfach erklärt Wie und warum Algorithmen diskriminierenAutomatisierte Entscheidungssysteme können diskriminieren. Wir erklären, welche Ursachen das hat, was in solchen Fällen passieren kann und warum die bestehenden Gesetze nicht ausreichend vor algorithmischer Diskriminierung schützen.
Diskriminierung 2.0 Algorithmen sind binär, Menschen nichtMenschen aus der LGBTIQ-Community werden von algorithmischen Systemen oftmals nicht erkannt, geblockt oder gar ausgeschlossen. Zum Auftakt des Pride-Months zeigen AlgorithmWatch CH, humanrights.ch, LOS, Pink Cross und TGNS, wie Algorithmen LGBTIQ-Personen diskriminieren können.
Diskriminierung 2.0 Wie Rassismus in Algorithmen weiterlebtKI und algorithmische Systeme können Menschen aufgrund ihrer Herkunft benachteiligen oder gar rassistisch diskriminieren – auch im Arbeitsmarkt. Zum internationalen Tag gegen Rassismus beleuchten AlgorithmWatch CH, humanrights.ch und das National Coalition Building Institute NCBI, wie in Jobbewerbungsverfahren eingesetzte automatisierte Systeme Ungleichheiten reproduzieren können.
Serie mit Fallbeispielen Diskriminierung 2.0: Wie Algorithmen Menschen diskriminierenAnhand von konkreten Fallbeispielen beleuchten wir unterschiedlichste Fälle von algorithmischer Diskriminierung.
Diskriminierung 2.0 Wie Algorithmen Frauen diskriminierenBei der Erstellung von Bildern durch KI, der Verbreitung von Stellenangeboten auf Social Media oder dem Zugang zu sozialen Leistungen können Frauen von Algorithmen benachteiligt werden. Zum internationalen Frauentag beleuchten AlgorithmWatch CH, humanrights.ch und alliance F die geschlechtsspezifischen Diskriminierungen im Zusammenhang mit dem Einsatz von Algorithmen.
Experiment Wie KI-Bildgeneratoren die Welt zeigen: Stereotypen statt VielfaltStudien dazu befassen sich meistens nur mit MidJourney. Bei anderen Tools ist die ernste Absicht zu erkennen, eine grössere Vielfalt im Output darzustellen, wenn auch mit durchwachsenem Erfolg.
Kurz erklärt Wie Algorithmen diskriminieren – und was wir dagegen tun solltenAlgorithmische und KI-basierte Systeme werden sowohl von Behörden als auch von Unternehmen immer häufiger eingesetzt – unter anderem, um Prognosen zu erstellen, Empfehlungen zu geben oder Entscheide zu fällen. Ihr Einsatz kann allerdings zu Diskriminierungen führen. Das heutige Diskriminierungsverbot in der Schweiz reicht nicht aus und muss verbessert werden, um vor algorithmischen Diskriminierungen zu schützen. Dieses Anliegen findet nun auch in der Politik Gehör.
Medienmitteilung Spiegel der Gesellschaft: Diskriminierung im Recruiting durch KI verstärktDas Horizon Europe-Projekt FINDHR beschäftigt sich mit Diskriminierung in der Personalauswahl durch algorithmische Systeme. AlgorithmWatch CH führt das Projekt gemeinsam mit Partnerinstitutionen aus ganz Europa durch. Wir rufen zum Spenden von echten Lebensläufen auf, um mithilfe dieser Daten, Werkzeuge gegen Diskriminierung zu entwickeln.
Medienmitteilung Künstliche Intelligenz: In der Schweiz diskriminieren Algorithmen ungestraftIn ihrem neuen Positionspapier kritisiert die Menschenrechtsorganisation AlgorithmWatch CH das veraltete Schweizer Antidiskriminierungsrecht, das deutliche Lücken beim Schutz vor Diskriminierung durch Algorithmen aufweist. Das Papier zeigt umfassend auf, wie Künstliche Intelligenz und weitere algorithmische Systeme zu neuartigen Formen von Diskriminierungen führen können. AlgorithmWatch CH fordert daher eine Ausweitung des Antidiskriminierungsrechts, unter anderem durch ein allgemeines Diskriminierungsverbot für Private sowie kollektive Rechtsmittel.
Positionspapier Diskriminierende Algorithmen: So gelingt der SchutzWenn Algorithmen Prognosen erstellen, Empfehlungen geben oder Entscheidungen fällen, besteht immer das Risiko, dass sie dabei Menschen diskriminieren. Doch wie diskriminieren Algorithmen genau? Und was sollte die Politik dagegen tun? Wir beleuchten den Handlungsbedarf und zeigen Lösungen für einen besseren Schutz vor algorithmischer Diskriminierung.
Algorithmen als Spiegel der GesellschaftWie Machtstrukturen und Ungerechtigkeiten Eingang in automatisierte Entscheidungsprozesse finden: Ein Überblick und Lösungsansätze.