#discrimination (25 Ergebnisse)

KI & Behinderung

KI und Algorithmen: Wie können Menschen mit Behinderungen von diesen Technologien profitieren?

KI-Anwendungen können den Alltag von Menschen mit Behinderungen erleichtern, andere jedoch ihre Grundrechte tangieren. Ein Überblick über die Chancen und Risiken Künstlicher Intelligenz für Menschen mit Behinderungen.

«Bibliothek»

Geschlechtsbasierte Diskriminierung durch Algorithmen & KI

Künstliche Intelligenz und Algorithmen sind omnipräsent. Sei es beim Bewerben für den Job, bei dem Scrollen durch den Newsfeed oder bei der Gewaltprävention. Wir begegnen ihnen ständig – teilweise auch unbewusst. Während sie unseren Alltag einerseits erleichtern können, kann der Einsatz von Algorithmen aber auch Menschen diskriminieren, etwa aufgrund ihres Geschlechts.

Einfach erklärt

Zeige dein Gesicht und KI sagt, wer du bist

Mit biometrischen Erkennungstechnologien lassen sich Menschen identifizieren und überwachen. Sie sollen für mehr Sicherheit sorgen, gefährden aber die Grundrechte, diskriminieren und können sogar zu Massenüberwachung führen.

Researcherin Moira Daviet im Interview

«Algorithmische Systeme treffen keine ‹objektiveren› Personalentscheidungen als Menschen»

Der Einsatz von KI-Systemen in Bewerbungsverfahren kann diskriminieren. Im Rahmen des Horizon Europe-Projekts «FINDHR» erforscht Moira Daviet, Researcherin bei AlgorithmWatch CH, wie dieser Art von Diskriminierung entgegengewirkt werden kann. Im Interview spricht sie über ihre Arbeit.

Medienmitteilung

KI-Regulierung: Zaghafter Bundesrat

Der Bundesrat will Künstliche Intelligenz regulieren. Sein heutiger Grundsatzentscheid geht in die richtige Richtung, ist aber zaghaft und wenig weitsichtig. Am Tag nach dem AI Action Summit in Paris und in Zeiten, in denen die Machtkonzentration bei Techkonzernen und deren Inhabern ein bedenkliches Ausmass angenommen hat, müsste der Bundesrat entschiedener vorgehen und die Interessen der Bevölkerung in den Mittelpunkt stellen, um Grundrechte, Demokratie und Nachhaltigkeit im Umgang mit KI umfassend zu schützen. Welche Massnahmen dafür nötig wären, zeigt AlgorithmWatch CH in einer eigenen Analyse umfassend auf.

Positionspapier

Welche KI wollen wir? Rahmenbedingungen für Algorithmen & Künstliche Intelligenz

Der Bundesrat analysiert bis Ende 2024 den Regulierungsbedarf rund um KI und wird darauf basierend mögliche Schritte einleiten. Was der Bundesrat und das Parlament aus Sicht der Grundrechte, Demokratie und Nachhaltigkeit dabei beachten sollten, fassen wir hier zusammen.

Diskriminierung 2.0

So kann Künstliche Intelligenz Kinder benachteiligen

Künstliche Intelligenz kann langfristige Auswirkungen auf die Zukunftschancen und Lebensumstände von Kindern und Jugendlichen haben. Zum Internationalen Tag der Kinderrechte vom 20. November beleuchten AlgorithmWatch CH, humanrights.ch, Pro Juventute und UNICEF Schweiz und Liechtenstein, wie Algorithmen und KI Ungleichheiten verstärken können, die Kinder betreffen.

Diskriminierung 2.0

Wie Algorithmen das Leben von Menschen in Armut erschweren

Algorithmen und KI-Systeme können Ungleichheiten aufgrund von Armut verstärken und sogar neue Diskriminierungen schaffen. Zum internationalen Tag für die Beseitigung der Armut beleuchten AlgorithmWatch CH und humanrights.ch wie Algorithmen Menschen in prekären Lebenssituationen noch mehr Steine in den Weg legen können.

Meinungsbeitrag in der NZZ am Sonntag

Welche KI wollen wir? Der Bundesrat muss sich jetzt entscheiden

Entweder Regulierung oder Innovation? Schwarz-Weiss-Malen hilft nicht weiter im Umgang mit künstlicher Intelligenz. Es gibt bessere Rezepte für eine gesunde Entwicklung, schreibt Angela Müller.

Medienmitteilung

Bundesrat steht bei KI zunehmend unter Druck

AlgorithmWatch CH hat im Namen einer breiten Koalition heute Dienstag dem Bundesrat eine Petition zu Künstlicher Intelligenz übergeben. Rund 45 Organisationen rufen den Bundesrat dazu auf, den Schutz vor Diskriminierung zu einer Priorität der anstehenden Regulierungen rund um KI zu machen. Parlamentarier*innen aus sechs Parteien unterstützen das Anliegen. Viele von ihnen waren bei der Übergabe mit dabei.

Geschlechtsangleichende Transition: Auch im digitalen Leben schwierig

Nur eine Formalität? Für die Transgender-Community ist der Wechsel der Online-Identität kein simpler Verwaltungsakt. Eine mangelhafte Datenarchitektur macht es nur schlimmer.

Appell an den Bundesrat

Draq Queen Mona Gamie: «Shadow-Banning ist extrem problematisch.»

Social-Media-Algorithmen können Vielfalt unterdrücken und die queere Community unsichtbar machen. Welche gesellschaftlichen Folgen das hat, erläutert Draq Queen Mona Gamie im Video. Unterstütze jetzt unseren Appell an den Bundesrat!

Appell an den Bundesrat

Inclusion Handicap Vorstandsmitglied Sébastien Kessler: «Der Appell an den Bundesrat muss unbedingt unterzeichnet werden.»

Der Einsatz von Algorithmen und Künstlicher Intelligenz kann Menschen diskriminieren, so etwa Menschen mit Behinderungen. Ein Fallbeispiel aus Europa erläutert Inclusion Handicap Vorstandsmitglied Sébastien Kessler im Video. Um solche Fälle von Diskriminierung in der Schweiz zu verhindern, muss der Bundesrat den Schutz vor Diskriminierung zu einer Priorität der kommenden Regulierungen rund um KI machen. Unterzeichne jetzt den Appell an den Bundesrat und teile ihn in deinem Umfeld!

Appell an den Bundesrat

«Als demokratische Gesellschaft haben wir die Aufgabe, Menschen vor Diskriminierung zu schützen.»

Hast du gewusst, dass Algorithmen und KI nicht per se neutral und objektiv sind? Im Video erläutert Angela Müller, Geschäftsleiterin AlgorithmWatch CH, inwiefern der Einsatz von Algorithmen & KI aufgrund von vielen unterschiedlichen Merkmalen diskriminieren kann. Doch wir können etwas tun: Unterzeichne jetzt unseren Appell!

Appell an den Bundesrat

Antirassismus-Expertin Anja Glover: «KI verstärkt bestehende Diskriminierungen»

Der Einsatz von Algorithmen und KI kann bestehende gesellschaftliche Ungerechtigkeiten übernehmen, vervielfachen und verfestigen. Welche diskriminierenden Folgen das bereits für Menschen hatte, erfährst du im Video mit Diversity- und Antirassimus-Expertin Anja Glover. AlgorithmWatch CH ruft mit einer breiten Koalition von Unterstützer*innen nun den Bundesrat dazu auf, den Schutz vor Diskriminierung zu einer Priorität der kommenden Regulierungen rund um KI machen. Unterzeichne jetzt unseren Appell!

Appell an den Bundesrat

Unternehmerin Patrizia Laeri: «Heute reden wir über Ungerechtigkeiten durch Algorithmen und KI!»

Hast du gewusst, dass der Einsatz von Algorithmen und Künstlicher Intelligenz (KI) Menschen unter anderem aufgrund ihrer Geschlechtsidentität diskriminieren kann? Im Video nennt Patrizia Laeri, Unternehmerin und frühere SRF-Moderatorin, konkrete Fallbeispiele. Solche Fälle wollen wir in der Schweiz verhindern: Unterzeichne jetzt unseren Appell «Künstliche Intelligenz mit Verantwortung… ohne Diskriminierung» an den Bundesrat!

Medienmitteilung

Künstliche Intelligenz kann diskriminieren: Breite Koalition fordert Bundesrat zum Handeln auf

In einem heute von AlgorithmWatch CH initiierten Appell ruft eine breite Koalition von prominenten Persönlichkeiten und Organisationen den Bundesrat dazu auf, Massnahmen zum Schutz vor Diskriminierung durch Algorithmen und Künstliche Intelligenz zu ergreifen. International haben Fälle solcher Diskriminierungen bereits für Schlagzeilen gesorgt.

Appell an den Bundesrat

Künstliche Intelligenz mit Verantwortung … ohne Diskriminierung

Algorithmen und Künstliche Intelligenz (KI) sollen uns allen zugutekommen. Dafür müssen wir sicherstellen, dass die Systeme verantwortungsvoll eingesetzt werden – und keine Menschen diskriminieren. Wir rufen den Bundesrat deshalb dazu auf, den Schutz vor Diskriminierung durch Algorithmen zu einer Priorität der kommenden Regulierungen rund um KI zu machen.

Was ist algorithmische Diskriminierung?

Diskriminierung durch Algorithmen und Künstliche Intelligenz (KI): Wir geben einen Überblick über das Thema.

Einfach erklärt

Wie und warum Algorithmen diskriminieren

Automatisierte Entscheidungssysteme können diskriminieren. Wir erklären, welche Ursachen das hat, was in solchen Fällen passieren kann und warum die bestehenden Gesetze nicht ausreichend vor algorithmischer Diskriminierung schützen.

Diskriminierung 2.0

Algorithmen sind binär, Menschen nicht

Menschen aus der LGBTIQ-Community werden von algorithmischen Systemen oftmals nicht erkannt, geblockt oder gar ausgeschlossen. Zum Auftakt des Pride-Months zeigen AlgorithmWatch CH, humanrights.ch, LOS, Pink Cross und TGNS, wie Algorithmen LGBTIQ-Personen diskriminieren können.

Diskriminierung 2.0

Wie Rassismus in Algorithmen weiterlebt

KI und algorithmische Systeme können Menschen aufgrund ihrer Herkunft benachteiligen oder gar rassistisch diskriminieren – auch im Arbeitsmarkt. Zum internationalen Tag gegen Rassismus beleuchten AlgorithmWatch CH, humanrights.ch und das National Coalition Building Institute NCBI, wie in Jobbewerbungsverfahren eingesetzte automatisierte Systeme Ungleichheiten reproduzieren können.

Serie mit Fallbeispielen

Diskriminierung 2.0: Wie Algorithmen Menschen diskriminieren

Anhand von konkreten Fallbeispielen beleuchten wir unterschiedlichste Fälle von algorithmischer Diskriminierung.

Diskriminierung 2.0

Wie Algorithmen Frauen diskriminieren

Bei der Erstellung von Bildern durch KI, der Verbreitung von Stellenangeboten auf Social Media oder dem Zugang zu sozialen Leistungen können Frauen von Algorithmen benachteiligt werden. Zum internationalen Frauentag beleuchten AlgorithmWatch CH, humanrights.ch und alliance F die geschlechtsspezifischen Diskriminierungen im Zusammenhang mit dem Einsatz von Algorithmen.

Experiment

Wie KI-Bildgeneratoren die Welt zeigen: Stereotypen statt Vielfalt

Studien dazu befassen sich meistens nur mit MidJourney. Bei anderen Tools ist die ernste Absicht zu erkennen, eine grössere Vielfalt im Output darzustellen, wenn auch mit durchwachsenem Erfolg.

Seite 1 von 2