Interview in 20 Minuten

Plattformregulierung: «Die Machtkonzentration bei Tech-Giganten ist gefährlich»

Algorithmen steuern unsere Social-Media-Inhalte, doch nur die Plattformen wissen, welche Beiträge sie weshalb ausspucken. Im Interview mit 20 Minuten erläutert Angela Müller von AlgorithmWatch CH warum die Intransparenz und Machtkonzentration der Plattformen für die demokratische Meinungsbildung ein Problem sind.

Blog

28. Oktober 2024

#publicsphere

Foto: 20min/Anna Bila

Das vorliegende Interview von Daniel Graf mit Angela Müller, Geschäftsleiterin von AlgorithmWatch CH, erschien am 25. Oktober in 20 Minuten.

Darum gehts
  • Social-Media-Plattformen nutzen Algorithmen – diese filtern Inhalte und bestimmen, was Nutzer zu sehen bekommen.
  • Wie die Algorithmen funktionieren, wissen jedoch oft nur die Unternehmen selbst.
  • Angela Müller von der Organisation AlgorithmWatch CH sieht darin ein Problem für die Meinungsbildung – und die Demokratie.
  • Sie fordert diesbezüglich klarere Regeln für mehr Transparenz.

Social-Media-Plattformen und die Unternehmen dahinter haben enorme Reichweiten und damit grosse Macht: Ihre Algorithmen bestimmen, wer was angezeigt bekommt und welche Beiträge unterdrückt werden. Meist wissen nur die Unternehmen selbst, nach welchen Kriterien das passiert.

Angela Müller ist Geschäftsleiterin von AlgorithmWatch CH. Sie befürwortet eine Plattformregulierung, sieht aber auch Gefahren. Im Interview erklärt sie, welche.

Wieso muss der Staat regulieren, was auf Facebook, X und Co. gesagt wird?

Der Grossteil unserer Diskussionen und öffentlichen Meinungsbildung findet heute auf Social Media statt. Doch wir haben keine Ahnung, wie dieser Dialog moderiert wird, was die Algorithmen hochspülen und welche Meinungen nicht gezeigt werden. Diese Intransparenz und Machtkonzentration der privaten Plattformen sind für die Meinungsbildung in einer Demokratie ein Problem.

Angela Müller

«Es geht bei einer Regulierung nicht darum, Meinungen zu löschen. Sondern darum, die Plattformen zur Verantwortung zu ziehen, wenn sie mit dem Verbreiten von hetzerischen Inhalten ihren Profit maximieren.»

Angela Müller, Geschäftsleiterin AlgorithmWatch CH

Inwiefern?

Weil dahinter ein Geschäftsmodell der grossen Firmen steht. Sie verdienen Geld an Werbung. Je länger wir online sind, desto mehr Werbung kann uns angezeigt werden. Dazu setzen sie Algorithmen ein, die Inhalte zeigen, die uns möglichst lange auf der Plattform halten sollen. Und dann kann es dazu kommen, dass diese Algorithmen verstärkt Inhalte anzeigen, die polarisierend, falsch, diskriminierend oder hetzerisch sind.

Ist es am Staat, einzugreifen, wenn Posts nicht strafrechtlich relevant sind?

Nein. Niemand will eine Zensurbehörde. Es geht bei einer Regulierung nicht darum, Meinungen zu löschen. Sondern darum, die Plattformen zur Verantwortung zu ziehen, wenn sie mit dem Verbreiten von hetzerischen Inhalten ihren Profit maximieren. Wir müssen online eine gesunde und faire Debatte sicherstellen, weil da die Meinungen gemacht werden. Aber ich will klar sagen: Es sollen keine Inhalte verboten werden. Was strafrechtlich relevant ist, etwa Gewaltinhalte oder Kinderpornografie, soll gelöscht werden, eben weil es gegen das Gesetz verstösst. Aber Lügen muss in einer Demokratie weiterhin erlaubt sein, das Recht auf freie Meinungsäusserung ist dafür zentral.

Der Digital Services Act der EU spricht explizit von «absehbaren nachteiligen Auswirkungen auf die gesellschaftliche Debatte und auf Wahlprozesse und die öffentliche Sicherheit» durch die Plattformen. Ist das nicht viel zu schwammig und droht zur Zensur zu verkommen?

Diese Formulierung gibt es im Artikel 34 des DSA. Doch dort geht es nicht darum, solche Posts zu löschen. Die Plattformen sollen einen Bericht erstellen, ob ihre Dienste diesbezüglich ein systemisches Risiko darstellen. Und genau darum geht es: Wir müssen erst einmal herausfinden, ob von den Plattformen tatsächlich eine Gefahr für die Meinungsbildung und die Demokratie ausgeht, wie diese Gefahr aussieht und wie gross sie ist. Dann können wir reagieren. Doch dazu müssen wir die Plattformen zu mehr Transparenz zwingen, sie müssen Rechenschaft über ihr Geschäftsgebahren ablegen, sodass wir sie zur Verantwortung ziehen können.

Folgen die Plattformen dem nicht, drohen Milliardenbussen. Führt das nicht dazu, dass die Plattformen vorsorglich zu viele Posts löschen?

Die Plattformen dürfen und sollen nicht automatisch für alles haftbar gemacht werden, was Menschen über ihre Dienste teilen. Das wäre fatal, dann drohte tatsächlich sogenanntes «Overblocking», also dass Plattformen vorsorglich zu viel löschen. Das wäre eine Gefahr für die Meinungsäusserung. Das Ziel der Regulierung muss vielmehr sein, dass Plattformen Rechenschaft darüber ablegen müssen, welche Inhalte von ihren Algorithmen verbreitet und welche unterdrückt werden. Und dass es dabei eben nicht nur um ihre eigene Profitmaximierung gehen darf. Unsere demokratische Meinungsbildung darf nicht von dieser Maxime geprägt sein. Ausserdem: Die Bussen im DSA sind an die Jahresumsätze gekoppelt. Sie sind also nur so hoch, weil die Plattformen Jahr für Jahr Dutzende Milliarden Umsatz machen. Dieser enormen Gewinne müssen wir uns bewusst sein.

Wie gelingt dieser Balanceakt?

Als ersten Schritt durch Transparenz. Denn so können wir als Gesellschaft Aufsicht ausüben über die Funktionsweise von Plattformen. Und natürlich ist eine Plattformregulierung wie der DSA nur ein Puzzleteil. Wir dürfen das Big Picture nicht aus den Augen verlieren: etwa, dass die gleichen Firmen, die hinter den Plattformen stehen, auch die digitale Infrastruktur von Schulen und Verwaltungen entwickeln. Dazu braucht es auch weiter die Förderung digitaler Kompetenzen. Wir sind überzeugt: Die enorme Machtkonzentration bei einigen wenigen Tech-Giganten, die wir im Moment haben, ist gefährlich und gehört reguliert.

AlgorithmNews CH - abonniere jetzt unseren Newsletter!