Algorithmen: Praktische Informationsmanager oder manipulative Blackbox?
Wie beeinflussen Algorithmen und Social Bots die Meinungsbildung und Entscheidungsfindung in einer Demokratie? Estelle Pannatier antwortet auf das Interview von Daniela Rhyner. Dieser Artikel wurde ursprünglich am 13. Dezember 2022 auf dem Bernetblog veröffentlicht.
Donald Trump gewinnt die US-Präsidentschaftswahl. Grossbritannien stimmt für den Brexit. Und Elon Musk kauft Twitter, um – gemäss eigenen Angaben – mehr Meinungsfreiheit und Demokratie in der Welt zu «fördern». Spätestens seit diesen eher unerwarteten Ereignissen ist die Öffentlichkeit besser sensibilisiert hinsichtlich Algorithmen und Social Bots. Doch wie beeinflussen uns diese?
Estelle Pannatier, Policy- und Advocacy-Managerin bei AlgorithmWatch Schweiz, hat Antworten:
Wie beeinflussen uns «intelligente Technologien» bei der Informationsbeschaffung, Meinungsbildung und Entscheidungsfindung?
Klar ist, dass sie uns beeinflussen: Ein beachtlicher Teil der öffentlichen Debatte findet heute auf algorithmisch gesteuerten Online-Plattformen statt, die privaten Konzernen gehören. Wie gross und welcher Art dieser Einfluss genau ist, das lässt sich aber nicht ohne Weiteres beziffern: Auf individueller Ebene wissen wir als Nutzer*innen nur bedingt, warum wir die Inhalte sehen, die wir sehen, und wie der Algorithmus mit unseren Inhalten umgeht. Auf gesellschaftlicher Ebene können wir nicht sagen, welchen Einfluss Plattformen auf unsere demokratische Öffentlichkeit ausüben. Wir haben bisher vor allem anekdotische Einblicke dazu, wie Plattformen Inhalte steuern, fördern und löschen – aber noch kein systematisches Wissen. Das muss sich unbedingt ändern.
Eine Demokratie lebt vom demokratischem Diskurs. Dieser findet unter anderem auf Social Media-Plattformen wie Twitter, in Online-Foren und in Kommentarspalten von Online-Medien statt. Warum werden gewisse Posts und Suchergebnisse gewissen Nutzer*innen ausgespielt?
Auf Social Media treffen algorithmische Empfehlungssysteme eine Auswahl der Inhalte, die uns angezeigt werden. Es gibt aber auch Algorithmen, die für die Moderation von Inhalten eingesetzt werden, um also Inhalte zu entdecken, die etwa gegen die Nutzungsbedingungen verstossen und gelöscht werden sollten. Social Media eröffnen ja eine unglaubliche Zahl von Kommunikationsmöglichkeiten und entsprechend riesig ist die Anzahl von auf ihnen veröffentlichten Posts. Die Empfehlungsalgorithmen treffen für uns hier eine Vorauswahl und zeigen uns nur das an, was zu unserer bisherigen Interaktionsweise, unseren Interessen und unseren Kontakten passt. Das ist einerseits praktisch, um sich in der Flut von Informationen zurechtzufinden – aber damit schränkt ein Algorithmus natürlich unseren Blick ein auf das, woran wir sowieso interessiert sind (bzw. auf die Interessen, die der Algorithmus uns zuordnet). Ausserdem funktionieren diese Algorithmen heute wie eine Blackbox: Es ist sehr schwer, allgemeingültig zu sagen, nach welchen Kriterien Posts, Kommentare und Suchergebnisse priorisiert werden. Aber es gibt einige Indizien.
Wer profitiert von Algorithmen im Kontext von Meinungsbildung? Und wie?
Das Geschäftsmodell der Social Media-Plattformen beruht auf Werbung. Ihr Ziel ist es somit, die Zeit zu maximieren, die wir auf den Plattformen verbringen – denn je länger wir auf der Plattform sind, desto mehr Werbung können sie uns anzeigen. Algorithmische Empfehlungssysteme sind also dahingehend optimiert, dass sie die Nutzungsdauer und das Engagement von uns Nutzer*innen maximieren. Forschungsergebnisse zeigen, dass sie jene Inhalte hochspielen, die besonders viel Interaktion hervorrufen – etwa durch provokative oder polarisierende Inhalte, die Emotionen erzeugen. Es zeigt sich dann, dass jene Inhalte teilweise öfters oder weiter oben in der Timeline angezeigt werden. In einem Datenspendeprojekt im Vorfeld der Bundestagswahl in Deutschland konnten wir beispielsweise zeigen, dass Inhalte der Partei AfD tendenziell in der Instagram-Timeline weiter oben angezeigt werden als jene anderer Parteien – und dass sich das nicht alleine durch Faktoren wie Reichweite oder Aktualität erklären lässt.
Elon Musk hat Twitter gekauft. Als Ziel gab er an, mit dem aussergewöhnlichen Potenzial von Twitter die Meinungsfreiheit und Demokratie in der Welt zu fördern. Seit seiner Übernahme ist einiges passiert. Welche Auswirkungen auf die Demokratie hat diese Übernahme?
Elon Musk hat seit seiner Übernahme von Twitter eine Reihe von Massnahmen ergriffen, unter anderem hat er viele der für die Moderation von Inhalten Verantwortlichen entlassen. Auch die Änderung der Verifizierung (das blaue Häkchen) ist vollständig missraten und er hat eine Reihe von zuvor gesperrten Accounts wieder zugelassen, worauf sich viel mehr diskriminierende Inhalte verbreiteten. Was diese Veränderungen und die zukünftigen Massnahmen von Elon Musk für die Demokratie bedeuten werden, bleibt unklar. Sicher ist: Diese Massnahmen haben Auswirkungen auf die Gesellschaft und grosse Unternehmen wie Twitter müssen die Verantwortung für ihr Tun übernehmen. Dies ist zudem im Rahmen der neuen europäischen Gesetzgebung, dem Digital Services Act, vorgesehen. Die aktuelle Twitter-Krise hat vor allem auch das Potenzial, uns dazu zu bringen, über die Rolle dieser Arenen für die Demokratie und die dominierende Rolle bestimmter Plattformen nachzudenken. Wir brauchen, auch in der Schweiz, eine zielführende, ausgewogene Regulierung von Online-Plattformen.
AlgorithmWatch Schweiz fordert, gemeinsam mit anderen zivilgesellschaftlichen Organisationen, vom Bundesrat eine umfassende Regulierung von Online-Plattformen in der Schweiz. Weshalb?
Das Beispiel Twitter zeigt, dass Online-Plattformen nach wie vor eine Blackbox sind und dass wir auch in der Schweiz eine zielführende, ausgewogene Regulierung brauchen. Ein Grossteil unserer demokratischen Öffentlichkeit vollzieht sich heute auf diesen privaten Plattformen – doch wir können nicht nachvollziehen, wie das geschieht und welchen Einfluss es auf unsere Gesellschaft hat. Auch wissen wir kaum, in welchem Ausmass Menschen auf Online-Plattformen diskriminiert, manipuliert oder mit Hassrede konfrontiert werden – und wie wir als Gesellschaft effektiv dagegen vorgehen könnten. Unsere demokratisch gestützten Grundrechte und Gesetze gelten auch im digitalen Raum. Wir müssen Werkzeuge an die Hand bekommen, um diese auch zuverlässig zu schützen und durchzusetzen.
Welche Tipps möchten Sie Schweizer Stimmberechtigten für ihre Entscheidungsfindung mitgeben?
- Möglichst viele Informationsquellen benützen und Social Media nicht als einzigen Kanal für Nachrichtenkonsum wählen – damit nicht alle Informationen, die ich über die Welt erhalte, vom (selben) Algorithmus vorgefiltert werden.
- Sich bewusst machen, dass jeder Klick, den ich hinterlasse, in mein Profil einfliesst – das dann entscheidet, was ich in Zukunft sehe. Das heisst nicht, dass Social Media nicht mehr genutzt werden sollen, denn sie eröffnen auch viele wichtige Möglichkeiten. Aber wir sollten uns bewusst sein, was sie sind und leisten können – und was eben nicht.
- Sich politisch engagieren und/oder Organisationen wie AlgorithmWatch Schweiz unterstützen, die sich dafür einsetzen, unsere Rechte und Interessen gegenüber intransparenten algorithmisch gesteuerten Plattformen zu stärken. Um unsere Arbeit zu machen, sind wir auf diese Unterstützung angewiesen!