Arbeitnehmendenschutz
Künstliche Intelligenz verändert die Arbeitswelt – was macht die Schweiz?
Spätestens seit der Einführung von ChatGPT sind KI-Anwendungen im Berufsalltag vieler Menschen omnipräsent. Doch Arbeitgeber setzen KI-Tools auch für andere Zwecke ein, etwa zum Management des Personals. Das birgt Risiken. Dank eines Nationalrats und einer Nationalrätin tut sich nun auch im Parlament was, damit die Politik auf diese Herausforderungen reagiert.
Ob zur Produktivitätssteigerung, zur Analyse von Mitarbeitenden oder bei der Rekrutierung von neuem Personal: Arbeitgeber setzen vermehrt auf algorithmen- und KI-basierte Systeme. Arbeitnehmende bleiben bei der Planung, Umsetzung und im Betrieb von solchen Systemen allerdings oft aussen vor – auch wenn sie nach geltendem Gesetz das Recht auf Mitwirkung hätten. Dabei birgt der Einsatz von algorithmischen Systemen am Arbeitsplatz diverse Risiken, wie etwa algorithmische Diskriminierung und negative Auswirkungen auf die Gesundheit.
«Gibt es Lücken im Gesetz?»
Mit einer kürzlich eingereichten Interpellation fragt Nationalrat Niklaus-Samuel Gugger (EVP) den Bundesrat, ob dieser die Einschätzung teilt, dass es im Bereich der Mitwirkung von Arbeitnehmenden gesetzliche Lücken in Bezug auf algorithmische Systeme gibt. Dabei stützt sich Gugger auf ein neues Rechtsgutachten der Universität St. Gallen. Dieses kommt zum Schluss, dass Arbeitnehmende aufgrund des Mitwirkungsgesetzes (MitwG) theoretisch zwar das Recht hätten, sich unter bestimmten Voraussetzungen bei der Digitalisierung am Arbeitsplatz einzubringen. In der Praxis stellen sich jedoch einige Hürden bei der Durchsetzung dieses Rechts. So fehlt es unter anderem an Sanktionen, wenn Arbeitgeber gegen Mitwirkungsbestimmungen verstossen.
Mitwirkungsrechte der Arbeitnehmenden stärken
Nationalrätin Barbara Gysi (SP) hat einen weiteren politischen Vorstoss zum Thema Algorithmen am Arbeitsplatz eingereicht. Mittels Motion fordert sie, dass die Mitwirkungsrechte der Arbeitnehmenden beim Einsatz von sogenannter Künstlicher Intelligenz und algorithmischen Systemen am Arbeitsplatz auf gesetzlicher Ebene gestärkt werden. Die Motion wurde von 37 weiteren Parlamentarier*innen mitunterzeichnet. In ihrer Motion schreibt Gysi: «Die Anpassungen sollen insbesondere die kollektive Mitsprache stärken. Hierfür sollen das Mitspracherecht ausgeweitet, Informationsrechte gestärkt, kollektive Klagerechte geschaffen sowie Sanktionsmöglichkeiten geprüft werden».
Mit dem Fokus auf die kollektive Ebene spricht Gysi eine wichtige Herausforderung beim Umgang mit algorithmischen Systemen an. Denn die Auswirkungen beim Einsatz von solchen Systemen sind oft kollektiver statt nur individueller Natur. Will ein Unternehmen beispielsweise personenbezogene Daten mithilfe eines algorithmischen Systems analysieren, kann es zwar sein, dass Arbeitnehmende die Verwendung ihrer eigenen Daten ablehnen können. Geben jedoch andere Arbeitnehmende ihre Zustimmung zur Verwendung ihrer individuellen Daten, kann das Unternehmen anhand der vorhandenen Daten dennoch eine Analyse erstellen. Auf Grundlage dieser Analyse können dann Entscheidungen getroffen werden, die alle Mitarbeitenden kollektiv betreffen, also auch Personen, die die Verwendung ihrer Daten abgelehnt haben. Deshalb ist es wichtig, dass die Mitwirkung auch über Arbeitnehmendenvertretungen geschehen kann.
So geht es weiter
Der Bundesrat muss nun bis zum Beginn der nächsten Session des eidgenössischen Parlaments zu den beiden Vorstössen Stellung nehmen. Bis Ende Februar 2024 ist somit klar, ob und wie der Bundesrat auf den stetig wachsenden Einfluss von KI in der Arbeitswelt reagieren will. Im Parlament kann darauffolgend die Debatte über den Umgang mit Algorithmen am Arbeitsplatz beginnen. Was bereits heute feststeht: Die Schweizer Politik ist gefordert, die Herausforderungen, die sich durch algorithmische Systeme ergeben, möglichst bald anzugehen. Wir von AlgorithmWatch CH werden uns dabei weiterhin dafür stark machen, dass Grundrechte am Arbeitsplatz auch beim Einsatz von algorithmischen Systemen respektiert werden.