AlgorithmWatch fordert Massnahmen zu «General Purpose AI»

Dass grosse KI-Sprachmodelle das Ende der Menschheit einläuten, ist reine Spekulation. Schäden richten sie allerdings bereits jetzt an. AlgorithmWatch fordert daher die Politik auf, konkrete Vorkehrungen zu treffen, um eine Eskalation zu verhindern.

Position

13. April 2023

#aiact

Angela Müller
Dr. Angela Müller
Geschäftsleiterin AlgorithmWatch CH | Head of Policy & Advocacy

Viele Menschen haben in den vergangenen Monaten entweder selbst Anwendungen wie ChatGPT und Midjourney ausprobiert und waren erstaunt über die Ergebnisse, oder sie haben aus den Medien davon erfahren, in deren Darstellung der Systeme oft ein Schwerpunkt darauf gelegt wird, dass sie „ausser Kontrolle“ geraten und die Herrschaft über die Menschheit an sich reissen könnten. Ist die Aufregung über aktuelle Entwicklungen großer generativer Systeme, der sogenannten „KI-Systeme für allgemeine Anwendungen” (General Purpose AI, GPAI) ein Sturm im Wasserglas, oder ist die Sorge berechtigt, dass sie den Fortbestand der Menschheit bedrohen?

AlgorithmWatch ist der Auffassung, dass die Systeme keineswegs banal sind und einen bemerkenswerten Schritt in der Entwicklung von algorithmischen Systemen darstellen. Sie als nichts mehr als „fortgeschrittene Taschenrechner“ zu bezeichnen, soll vermutlich in vielen Fällen dazu dienen, die Systeme zu entmystifizieren. Doch diese Darstellungen tragen dazu bei, die Risiken, die von ihnen ausgehen, zu verkennen und herunterzuspielen. GPAI bergen Gefahren für Grundrechte, nämlich nicht diskriminiert und in unserer Privatsphäre geschützt zu werden. Firmen wie OpenAI schrecken nicht davor zurück, Menschen in Ländern des Globalen Südens auszubeuten, um ihre Modelle zu trainieren, und sie nehmen in Kauf, dass die Systeme enorme Energiemengen verbrauchen. Weil nur wenige Mega-Konzerne in der Lage sind, die Summen zu investieren, die für die Entwicklung generativer KI benötigt werden, droht zudem ein Quasi-Monopol weniger Unternehmen.

Bereits jetzt machen die Systeme es zudem möglich, auf einfachste Art und Weise täuschend echt aussehende, irreführende, manipulative Bilder zu produzieren, gewaltige Mengen an Falschnachrichten sehr schnell und zu extrem geringen Kosten zu erzeugen und Menschen vorzugaukeln, die Systeme hätten Absichten und Intentionen. All das ist dazu geeignet, den Raum öffentlicher Debatten, der die Basis demokratischer Willensbildung ist, zu vergiften und böswillige Akteur*innen zu stärken. Anbieter von Systemen, die das befördern, müssen dafür zur Verantwortung gezogen werden.

Die Warnungen davor, dass GPAI das Ende der Menschheit einläuten, sind im Gegensatz dazu in erster Linie eine politische Strategie. „Diese Horror-Szenarien sollen davon ablenken, dass nun sofort Mechanismen dafür gefunden werden müssen, die konkreten und aktuellen gefährlichen Auswirkungen der Systeme zu adressieren und in den Griff zu bekommen“, sagt daher Matthias Spielkamp, Gründer und Geschäftsführer von AlgorithmWatch in Berlin. „Stattdessen sollen sie dazu animieren, wertvolle Aufmerksamkeit und Energie auf potenzielle – und nach allem, was wir derzeit wissen, extrem unwahrscheinliche – Risiken zu verwenden, wie eben die Möglichkeit, dass die Systeme sich der Kontrolle von Menschen entziehen.“

Diese Behauptungen gründen in der Ideologie des sogenannten „Longtermismus”, mit dem gerechtfertigt werden soll, über die negativen Auswirkungen auf heutige Generationen hinwegzuschauen. Das ist einer der Gründe, warum AlgorithmWatch den offenen Brief des Future of Life Institutes kritisiert, der ein sechsmonatiges Moratorium für die Entwicklung der Systeme fordert. Die Massnahmen, die der Brief fordert, sind zudem völlig ungeeignet dafür, konkrete Risiken in den Griff zu bekommen. 

Unternehmen wie Microsoft, Google oder Meta/Facebook, die zum Teil Milliarden in die Entwicklung von GPAI stecken, zu bitten, die Arbeiten daran kurzzeitig auszusetzen, wird die Welt nicht vor negativen Auswirkungen von GPAI schützen. Es würde stattdessen dazu beitragen, ihre Deutungshoheit darüber, was ein ‘ethisches’ System ist, weiter zu verfestigen”, so Angela Müller, Policy-Chefin von AlgorithmWatch und Leiterin von AlgorithmWatch CH, Zürich. „Das treibt nicht nur die Ideologie von nicht demokratisch legitimierten Privatpersonen, sondern auch ihre ganz konkreten Profitinteressen voran – denn in erster Linie wollen sie damit Geld verdienen”, so Müller. Den Unternehmen hinter den Systemen muss vielmehr klargemacht werden, dass sie die Verantwortung dafür, wie die Systeme genutzt werden, nicht länger abwälzen können.

Darum ist jetzt die Politik gefordert – und auf EU-Ebene besteht derzeit die Gelegenheit dazu. Vor diesem Hintergrund hat sich AlgorithmWatch der Analyse einer Gruppe internationaler Expert*innen angeschlossen, die konkrete Vorschläge dazu ausgearbeitet haben, wie die EU mit ihrer geplanten KI-Verordnung (AI Act) auf eine angemessene Art und Weise das Risiko schädlicher Auswirkungen von GPAI verringern kann (Details siehe unten unter [1]). Die Verordnung wird derzeit in Brüssel verhandelt. Die Schweiz muss sich jetzt entscheiden, ob sie weiter abwartet und darauf hofft, bei der EU Trittbrett zu fahren – oder ob ihr dies zum Schutz vor den aktuellen Risiken durch GPAI nicht ausreicht. Die Entwicklerfirmen hinter GPAI müssen genauso in die Pflicht genommen werden wie Unternehmen und Behörden, die die Systeme einsetzen. Und wir müssen die Mittel haben, sie zur Verantwortung zu ziehen, wenn ihre Systeme Grundrechte verletzen.

[1] In den “Five considerations to guide the regulation of ‘General Purpose AI’ in the EU’s AI Act: Policy guidance from a group of international AI experts” (deutsch: „Fünf Erwägungen zur Regulierung von ‚KI-Systemen für allgemeine Anwendungen‘ in der KI-Verordnung der EU: Politische Leitlinien einer Gruppe internationaler KI-Expert*innen“) setzen wir uns dafür ein, dass die europäischen Gesetzgeber in ihren Verhandlungen zur KI-Verordnung die folgenden Empfehlungen umsetzen:

Anmerkung von AlgorithmWatch: Die Definition, auf die sich die Vertreter*innen der EU-Mitgliedsstaaten für die Trilogverhandlungen geeinigt haben, lautet: „KI-System für allgemeine Zwecke: ein KI-System, das – unabhängig davon, wie es in Verkehr gebracht oder in Betrieb genommen wird, auch als Open-Source-Software, vom Anbieter dazu bestimmt ist, allgemein anwendbare Funktionen auszuführen, wie Bild- und Spracherkennung, Audio- und Videoerzeugung, Mustererkennung, Beantwortung von Fragen, Übersetzung und andere; ein KI-System für allgemeine Zwecke kann in einer Vielzahl von Kontexten verwendet und in eine Vielzahl anderer KI-Systeme integriert werden.” (Übersetzt aus dem englischen Original: https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf)

Anmerkung von AlgorithmWatch: GPAI werden von Firmen oder Behörden, die sie nicht selbst entwickelt haben oder kontrollieren, über Software-Schnittstellen in Produkte und Dienstleistungen integriert, die dann Menschen angeboten oder auf sie angewendet werden. Diese Firmen oder Behörden tragen ebenfalls Verantwortung dafür, wie sie die Systeme einsetzen – aber das darf die entwickelnden Unternehmen nicht aus ihrer Verantwortung entlassen.

Die Erwägungen wurden erarbeitet von:

Sie wurden von 55 weiteren Expert*innen sowie neun Organisationen – darunter AlgorithmWatch – mitunterzeichnet. Als PDF (auf Englisch) herunterladen:

Kontakt:

Dr. des. Angela Müller, Leiterin AlgorithmWatch CH

mueller@algorithmwatch.ch | +41 76 516 91 78

Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zum Artificial Intelligence Act.