#discrimination (25 Ergebnisse)

Leitfaden

KI-Regulierung: Was tut die Schweiz?

In der Schweiz wird immer mehr über Regulierungen rund um KI gesprochen. In diesem Leitfaden beleuchten wir die aktuellen politischen Entwicklungen.

Einfach erklärt

Automatisch aussortiert? Wenn KI-Systeme in Bewerbungsprozessen diskriminieren

KI-unterstützte Systeme in der Personalauswahl können Bewerbungen vorsortieren und bewerten oder Kandidat*innen empfehlen. Solche auf Algorithmen basierende Systeme mögen Personalverantwortlichen Zeit sparen, sie bergen aber auch das Risiko einer systematischen Diskriminierung – die oft unbemerkt bleibt.

Medienmitteilung

Diskriminierende KI bei Job-Bewerbungen: Forschungsprojekt zeigt neue Lösungen

Ein grosses europäisches Forschungsprojekt veröffentlicht neue Tools, Trainings und Empfehlungen, um Diskriminierung durch KI-Systeme in der Personalauswahl zu reduzieren.

KI-Sprachmodelle

KI gerecht gestalten

Es sind Tech-Giganten, die die bekanntesten KI-Sprachmodelle entwickeln. Sie werden meist mit westlichen Welt- und Wertvorstellungen trainiert und laufen Gefahr, Stereotypen zu reproduzieren, politisch blinde Flecken zu enthalten und viele Menschen auszugrenzen. Das muss nicht sein.

Surveillance camera, background sky

«Bibliothek»

Wenn unsere Gesichter uns identifizieren: Sicherheit zu welchem Preis?

In Europa wird Gesichtserkennung vermehrt eingesetzt, um Personen im öffentlichen zugänglichen Raum zu identifizieren. Der Einsatz solcher biometrischen Erkennungssysteme soll zu mehr Sicherheit beitragen, gefährdet jedoch Grundrechte und kann zu Diskriminierung und Massenüberwachung führen. Eine kurze Übersicht.

A couple of ATM machines sitting next to each other

Können Algorithmen automatisch Bankkonten sperren?

Der ecuadorianische Kleinunternehmer Atilio Andrade hat in Spanien dieselbe Erfahrung gemacht wie der Imam Koffi Agodjro in Frankreich: Ihre Bankkonten wurden plötzlich gesperrt und sie mussten gegen bürokratische Widerstände ankämpfen, um der Sache auf den Grund zu kommen.

Briefing

Wenn Algorithmen & KI (mit)entscheiden: Grundrechte schützen

Der Bundesrat will die Konvention zu Künstlicher Intelligenz des Europarates ratifizieren. Wir zeigen in einem neuen Briefing auf, was bei der Regulierung von KI berücksichtigt werden muss, damit Algorithmen und KI nachvollziehbar, verantwortungsvoll und grundrechtskonform eingesetzt werden, wenn sie Entscheidungen über Menschen beeinflussen.

KI & Behinderung

KI und Algorithmen: Wie können Menschen mit Behinderungen von diesen Technologien profitieren?

KI-Anwendungen können den Alltag von Menschen mit Behinderungen erleichtern, andere jedoch ihre Grundrechte tangieren. Ein Überblick über die Chancen und Risiken Künstlicher Intelligenz für Menschen mit Behinderungen.

«Bibliothek»

Geschlechtsbasierte Diskriminierung durch Algorithmen & KI

Künstliche Intelligenz und Algorithmen sind omnipräsent. Sei es beim Bewerben für den Job, bei dem Scrollen durch den Newsfeed oder bei der Gewaltprävention. Wir begegnen ihnen ständig – teilweise auch unbewusst. Während sie unseren Alltag einerseits erleichtern können, kann der Einsatz von Algorithmen aber auch Menschen diskriminieren, etwa aufgrund ihres Geschlechts.

Einfach erklärt

Zeige dein Gesicht und KI sagt, wer du bist

Mit biometrischen Erkennungstechnologien lassen sich Menschen identifizieren und überwachen. Sie sollen für mehr Sicherheit sorgen, gefährden aber die Grundrechte, diskriminieren und können sogar zu Massenüberwachung führen.

Researcherin Moira Daviet im Interview

«Algorithmische Systeme treffen keine ‹objektiveren› Personalentscheidungen als Menschen»

Der Einsatz von KI-Systemen in Bewerbungsverfahren kann diskriminieren. Im Rahmen des Horizon Europe-Projekts «FINDHR» erforscht Moira Daviet, Researcherin bei AlgorithmWatch CH, wie dieser Art von Diskriminierung entgegengewirkt werden kann. Im Interview spricht sie über ihre Arbeit.

Medienmitteilung

KI-Regulierung: Zaghafter Bundesrat

Der Bundesrat will Künstliche Intelligenz regulieren. Sein heutiger Grundsatzentscheid geht in die richtige Richtung, ist aber zaghaft und wenig weitsichtig. Am Tag nach dem AI Action Summit in Paris und in Zeiten, in denen die Machtkonzentration bei Techkonzernen und deren Inhabern ein bedenkliches Ausmass angenommen hat, müsste der Bundesrat entschiedener vorgehen und die Interessen der Bevölkerung in den Mittelpunkt stellen, um Grundrechte, Demokratie und Nachhaltigkeit im Umgang mit KI umfassend zu schützen. Welche Massnahmen dafür nötig wären, zeigt AlgorithmWatch CH in einer eigenen Analyse umfassend auf.

Positionspapier

Welche KI wollen wir? Rahmenbedingungen für Algorithmen & Künstliche Intelligenz

Der Bundesrat analysiert bis Ende 2024 den Regulierungsbedarf rund um KI und wird darauf basierend mögliche Schritte einleiten. Was der Bundesrat und das Parlament aus Sicht der Grundrechte, Demokratie und Nachhaltigkeit dabei beachten sollten, fassen wir hier zusammen.

Diskriminierung 2.0

So kann Künstliche Intelligenz Kinder benachteiligen

Künstliche Intelligenz kann langfristige Auswirkungen auf die Zukunftschancen und Lebensumstände von Kindern und Jugendlichen haben. Zum Internationalen Tag der Kinderrechte vom 20. November beleuchten AlgorithmWatch CH, humanrights.ch, Pro Juventute und UNICEF Schweiz und Liechtenstein, wie Algorithmen und KI Ungleichheiten verstärken können, die Kinder betreffen.

Diskriminierung 2.0

Wie Algorithmen das Leben von Menschen in Armut erschweren

Algorithmen und KI-Systeme können Ungleichheiten aufgrund von Armut verstärken und sogar neue Diskriminierungen schaffen. Zum internationalen Tag für die Beseitigung der Armut beleuchten AlgorithmWatch CH und humanrights.ch wie Algorithmen Menschen in prekären Lebenssituationen noch mehr Steine in den Weg legen können.

Meinungsbeitrag in der NZZ am Sonntag

Welche KI wollen wir? Der Bundesrat muss sich jetzt entscheiden

Entweder Regulierung oder Innovation? Schwarz-Weiss-Malen hilft nicht weiter im Umgang mit künstlicher Intelligenz. Es gibt bessere Rezepte für eine gesunde Entwicklung, schreibt Angela Müller.

Medienmitteilung

Bundesrat steht bei KI zunehmend unter Druck

AlgorithmWatch CH hat im Namen einer breiten Koalition heute Dienstag dem Bundesrat eine Petition zu Künstlicher Intelligenz übergeben. Rund 45 Organisationen rufen den Bundesrat dazu auf, den Schutz vor Diskriminierung zu einer Priorität der anstehenden Regulierungen rund um KI zu machen. Parlamentarier*innen aus sechs Parteien unterstützen das Anliegen. Viele von ihnen waren bei der Übergabe mit dabei.

Geschlechtsangleichende Transition: Auch im digitalen Leben schwierig

Nur eine Formalität? Für die Transgender-Community ist der Wechsel der Online-Identität kein simpler Verwaltungsakt. Eine mangelhafte Datenarchitektur macht es nur schlimmer.

Appell an den Bundesrat

Draq Queen Mona Gamie: «Shadow-Banning ist extrem problematisch.»

Social-Media-Algorithmen können Vielfalt unterdrücken und die queere Community unsichtbar machen. Welche gesellschaftlichen Folgen das hat, erläutert Draq Queen Mona Gamie im Video. Unterstütze jetzt unseren Appell an den Bundesrat!

Appell an den Bundesrat

Inclusion Handicap Vorstandsmitglied Sébastien Kessler: «Der Appell an den Bundesrat muss unbedingt unterzeichnet werden.»

Der Einsatz von Algorithmen und Künstlicher Intelligenz kann Menschen diskriminieren, so etwa Menschen mit Behinderungen. Ein Fallbeispiel aus Europa erläutert Inclusion Handicap Vorstandsmitglied Sébastien Kessler im Video. Um solche Fälle von Diskriminierung in der Schweiz zu verhindern, muss der Bundesrat den Schutz vor Diskriminierung zu einer Priorität der kommenden Regulierungen rund um KI machen. Unterzeichne jetzt den Appell an den Bundesrat und teile ihn in deinem Umfeld!

Appell an den Bundesrat

«Als demokratische Gesellschaft haben wir die Aufgabe, Menschen vor Diskriminierung zu schützen.»

Hast du gewusst, dass Algorithmen und KI nicht per se neutral und objektiv sind? Im Video erläutert Angela Müller, Geschäftsleiterin AlgorithmWatch CH, inwiefern der Einsatz von Algorithmen & KI aufgrund von vielen unterschiedlichen Merkmalen diskriminieren kann. Doch wir können etwas tun: Unterzeichne jetzt unseren Appell!

Appell an den Bundesrat

Antirassismus-Expertin Anja Glover: «KI verstärkt bestehende Diskriminierungen»

Der Einsatz von Algorithmen und KI kann bestehende gesellschaftliche Ungerechtigkeiten übernehmen, vervielfachen und verfestigen. Welche diskriminierenden Folgen das bereits für Menschen hatte, erfährst du im Video mit Diversity- und Antirassimus-Expertin Anja Glover. AlgorithmWatch CH ruft mit einer breiten Koalition von Unterstützer*innen nun den Bundesrat dazu auf, den Schutz vor Diskriminierung zu einer Priorität der kommenden Regulierungen rund um KI machen. Unterzeichne jetzt unseren Appell!

Appell an den Bundesrat

Unternehmerin Patrizia Laeri: «Heute reden wir über Ungerechtigkeiten durch Algorithmen und KI!»

Hast du gewusst, dass der Einsatz von Algorithmen und Künstlicher Intelligenz (KI) Menschen unter anderem aufgrund ihrer Geschlechtsidentität diskriminieren kann? Im Video nennt Patrizia Laeri, Unternehmerin und frühere SRF-Moderatorin, konkrete Fallbeispiele. Solche Fälle wollen wir in der Schweiz verhindern: Unterzeichne jetzt unseren Appell «Künstliche Intelligenz mit Verantwortung… ohne Diskriminierung» an den Bundesrat!

Medienmitteilung

Künstliche Intelligenz kann diskriminieren: Breite Koalition fordert Bundesrat zum Handeln auf

In einem heute von AlgorithmWatch CH initiierten Appell ruft eine breite Koalition von prominenten Persönlichkeiten und Organisationen den Bundesrat dazu auf, Massnahmen zum Schutz vor Diskriminierung durch Algorithmen und Künstliche Intelligenz zu ergreifen. International haben Fälle solcher Diskriminierungen bereits für Schlagzeilen gesorgt.

Appell an den Bundesrat

Künstliche Intelligenz mit Verantwortung … ohne Diskriminierung

Algorithmen und Künstliche Intelligenz (KI) sollen uns allen zugutekommen. Dafür müssen wir sicherstellen, dass die Systeme verantwortungsvoll eingesetzt werden – und keine Menschen diskriminieren. Wir rufen den Bundesrat deshalb dazu auf, den Schutz vor Diskriminierung durch Algorithmen zu einer Priorität der kommenden Regulierungen rund um KI zu machen.

Seite 1 von 2