AlgorithmWatch fordert Massnahmen zu «General Purpose AI»
Dass grosse KI-Sprachmodelle das Ende der Menschheit einläuten, ist reine Spekulation. Schäden richten sie allerdings bereits jetzt an. AlgorithmWatch fordert daher die Politik auf, konkrete Vorkehrungen zu treffen, um eine Eskalation zu verhindern.
Viele Menschen haben in den vergangenen Monaten entweder selbst Anwendungen wie ChatGPT und Midjourney ausprobiert und waren erstaunt über die Ergebnisse, oder sie haben aus den Medien davon erfahren, in deren Darstellung der Systeme oft ein Schwerpunkt darauf gelegt wird, dass sie „ausser Kontrolle“ geraten und die Herrschaft über die Menschheit an sich reissen könnten. Ist die Aufregung über aktuelle Entwicklungen großer generativer Systeme, der sogenannten „KI-Systeme für allgemeine Anwendungen” (General Purpose AI, GPAI) ein Sturm im Wasserglas, oder ist die Sorge berechtigt, dass sie den Fortbestand der Menschheit bedrohen?
AlgorithmWatch ist der Auffassung, dass die Systeme keineswegs banal sind und einen bemerkenswerten Schritt in der Entwicklung von algorithmischen Systemen darstellen. Sie als nichts mehr als „fortgeschrittene Taschenrechner“ zu bezeichnen, soll vermutlich in vielen Fällen dazu dienen, die Systeme zu entmystifizieren. Doch diese Darstellungen tragen dazu bei, die Risiken, die von ihnen ausgehen, zu verkennen und herunterzuspielen. GPAI bergen Gefahren für Grundrechte, nämlich nicht diskriminiert und in unserer Privatsphäre geschützt zu werden. Firmen wie OpenAI schrecken nicht davor zurück, Menschen in Ländern des Globalen Südens auszubeuten, um ihre Modelle zu trainieren, und sie nehmen in Kauf, dass die Systeme enorme Energiemengen verbrauchen. Weil nur wenige Mega-Konzerne in der Lage sind, die Summen zu investieren, die für die Entwicklung generativer KI benötigt werden, droht zudem ein Quasi-Monopol weniger Unternehmen.
Bereits jetzt machen die Systeme es zudem möglich, auf einfachste Art und Weise täuschend echt aussehende, irreführende, manipulative Bilder zu produzieren, gewaltige Mengen an Falschnachrichten sehr schnell und zu extrem geringen Kosten zu erzeugen und Menschen vorzugaukeln, die Systeme hätten Absichten und Intentionen. All das ist dazu geeignet, den Raum öffentlicher Debatten, der die Basis demokratischer Willensbildung ist, zu vergiften und böswillige Akteur*innen zu stärken. Anbieter von Systemen, die das befördern, müssen dafür zur Verantwortung gezogen werden.
Die Warnungen davor, dass GPAI das Ende der Menschheit einläuten, sind im Gegensatz dazu in erster Linie eine politische Strategie. „Diese Horror-Szenarien sollen davon ablenken, dass nun sofort Mechanismen dafür gefunden werden müssen, die konkreten und aktuellen gefährlichen Auswirkungen der Systeme zu adressieren und in den Griff zu bekommen“, sagt daher Matthias Spielkamp, Gründer und Geschäftsführer von AlgorithmWatch in Berlin. „Stattdessen sollen sie dazu animieren, wertvolle Aufmerksamkeit und Energie auf potenzielle – und nach allem, was wir derzeit wissen, extrem unwahrscheinliche – Risiken zu verwenden, wie eben die Möglichkeit, dass die Systeme sich der Kontrolle von Menschen entziehen.“
Diese Behauptungen gründen in der Ideologie des sogenannten „Longtermismus”, mit dem gerechtfertigt werden soll, über die negativen Auswirkungen auf heutige Generationen hinwegzuschauen. Das ist einer der Gründe, warum AlgorithmWatch den offenen Brief des Future of Life Institutes kritisiert, der ein sechsmonatiges Moratorium für die Entwicklung der Systeme fordert. Die Massnahmen, die der Brief fordert, sind zudem völlig ungeeignet dafür, konkrete Risiken in den Griff zu bekommen.
„Unternehmen wie Microsoft, Google oder Meta/Facebook, die zum Teil Milliarden in die Entwicklung von GPAI stecken, zu bitten, die Arbeiten daran kurzzeitig auszusetzen, wird die Welt nicht vor negativen Auswirkungen von GPAI schützen. Es würde stattdessen dazu beitragen, ihre Deutungshoheit darüber, was ein ‘ethisches’ System ist, weiter zu verfestigen”, so Angela Müller, Policy-Chefin von AlgorithmWatch und Leiterin von AlgorithmWatch CH, Zürich. „Das treibt nicht nur die Ideologie von nicht demokratisch legitimierten Privatpersonen, sondern auch ihre ganz konkreten Profitinteressen voran – denn in erster Linie wollen sie damit Geld verdienen”, so Müller. Den Unternehmen hinter den Systemen muss vielmehr klargemacht werden, dass sie die Verantwortung dafür, wie die Systeme genutzt werden, nicht länger abwälzen können.
Darum ist jetzt die Politik gefordert – und auf EU-Ebene besteht derzeit die Gelegenheit dazu. Vor diesem Hintergrund hat sich AlgorithmWatch der Analyse einer Gruppe internationaler Expert*innen angeschlossen, die konkrete Vorschläge dazu ausgearbeitet haben, wie die EU mit ihrer geplanten KI-Verordnung (AI Act) auf eine angemessene Art und Weise das Risiko schädlicher Auswirkungen von GPAI verringern kann (Details siehe unten unter [1]). Die Verordnung wird derzeit in Brüssel verhandelt. Die Schweiz muss sich jetzt entscheiden, ob sie weiter abwartet und darauf hofft, bei der EU Trittbrett zu fahren – oder ob ihr dies zum Schutz vor den aktuellen Risiken durch GPAI nicht ausreicht. Die Entwicklerfirmen hinter GPAI müssen genauso in die Pflicht genommen werden wie Unternehmen und Behörden, die die Systeme einsetzen. Und wir müssen die Mittel haben, sie zur Verantwortung zu ziehen, wenn ihre Systeme Grundrechte verletzen.
[1] In den “Five considerations to guide the regulation of ‘General Purpose AI’ in the EU’s AI Act: Policy guidance from a group of international AI experts” (deutsch: „Fünf Erwägungen zur Regulierung von ‚KI-Systemen für allgemeine Anwendungen‘ in der KI-Verordnung der EU: Politische Leitlinien einer Gruppe internationaler KI-Expert*innen“) setzen wir uns dafür ein, dass die europäischen Gesetzgeber in ihren Verhandlungen zur KI-Verordnung die folgenden Empfehlungen umsetzen:
- GPAI ist eine dehnbare Kategorie. Damit die KI-Verordnung der EU zukunftssicher ist, muss sie für ein breites Spektrum von Technologien gelten und nicht eng auf Chatbots / grosse Sprachmodelle (LLMs) beschränkt sein. Die in der allgemeinen Ausrichtung des EU-Rates verwendete Definition von GPAI ist ein gutes Modell.
Anmerkung von AlgorithmWatch: Die Definition, auf die sich die Vertreter*innen der EU-Mitgliedsstaaten für die Trilogverhandlungen geeinigt haben, lautet: „KI-System für allgemeine Zwecke: ein KI-System, das – unabhängig davon, wie es in Verkehr gebracht oder in Betrieb genommen wird, auch als Open-Source-Software, vom Anbieter dazu bestimmt ist, allgemein anwendbare Funktionen auszuführen, wie Bild- und Spracherkennung, Audio- und Videoerzeugung, Mustererkennung, Beantwortung von Fragen, Übersetzung und andere; ein KI-System für allgemeine Zwecke kann in einer Vielzahl von Kontexten verwendet und in eine Vielzahl anderer KI-Systeme integriert werden.” (Übersetzt aus dem englischen Original: https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf)
- GPAI-Modelle bergen inhärente Risiken und haben nachgewiesene und weitreichende Schäden verursacht. Während diese Risiken auf eine Vielzahl von nachgelagerten Akteuren und Anwendungen übertragen werden können, können sie auf Anwendungsebene allein nicht wirksam gemindert werden.
- GPAI muss während des gesamten Produktzyklus‘ reguliert werden, nicht nur auf Anwendungsebene, um die Bandbreite der beteiligten Interessengruppen zu berücksichtigen. Die ursprüngliche Entwicklungsphase ist von entscheidender Bedeutung, und die Unternehmen, die diese Modelle entwickeln, müssen verantwortlich sein für die Daten, die sie verwenden, und die Designentscheidungen, die sie treffen. Ohne Regulierung auf der Entwicklungsebene ermöglicht die derzeitige Struktur der KI-Lieferkette den Akteur*innen, die diese Modelle entwickeln, effektiv von einer entfernten nachgelagerten Anwendung zu profitieren und sich gleichzeitig jeder entsprechenden Verantwortung zu entziehen.
Anmerkung von AlgorithmWatch: GPAI werden von Firmen oder Behörden, die sie nicht selbst entwickelt haben oder kontrollieren, über Software-Schnittstellen in Produkte und Dienstleistungen integriert, die dann Menschen angeboten oder auf sie angewendet werden. Diese Firmen oder Behörden tragen ebenfalls Verantwortung dafür, wie sie die Systeme einsetzen – aber das darf die entwickelnden Unternehmen nicht aus ihrer Verantwortung entlassen.
- Entwickler*innen von GPAI sollten es nicht erlaubt sein, die Verantwortung mit einem Standard-Haftungsausschluss abzugeben. Ein solcher Ansatz schafft ein gefährliches Schlupfloch, das die ursprünglichen Entwickler*innen von GPAI (oft gut ausgestattete Grossunternehmen) aus der Verantwortung entlässt und stattdessen die alleinige Verantwortung auf nachgelagerte Akteure abwälzt, denen die Ressourcen, der Zugang zu den Modellen und die Fähigkeit fehlen, alle Risiken zu mindern.
- Durch die Regulierung sollte vermieden werden, dass zu enge Bewertungs- und Prüfungsmethoden für GPAI gebilligt werden, die dazu führen könnten, dass lediglich pro forma eine Checkliste abgehakt werden kann. Die Entwicklung von Prüfungsmethoden, etwa standardisierten Dokumentationspraktiken und andere Ansätze zur Bewertung von GPAI-Modellen, insbesondere generativen KI-Modellen, über viele Arten von Schäden hinweg ist ein aktiver und heiss umkämpfter Forschungsbereich, der Gegenstand umfassender Konsultationen sein sollte, auch mit der Zivilgesellschaft, Forscher*innen und anderen Akteur*innen, die nicht aus der Privatwirtschaft stammen.
Die Erwägungen wurden erarbeitet von:
- Dr. Timnit Gebru, Founder and Executive Director, Distributed AI Research Institute
- Dr. Alex Hanna, Research Director, Distributed AI Research Institute
- Amba Kak, Executive Director, AI Now Institute
- Dr. Sarah Myers West, Managing Director, AI Now Institute
- Maximilian Gahntz, Senior Policy Researcher, Mozilla Foundation
- Irene Solaiman, Policy Director, Hugging Face
- Dr. Mehtab Khan, Associate Research Scholar at Yale Information Society Project
- Dr. Zeerak Talat, Independent researcher (Computer science and artificial intelligence)
Sie wurden von 55 weiteren Expert*innen sowie neun Organisationen – darunter AlgorithmWatch – mitunterzeichnet. Als PDF (auf Englisch) herunterladen:
Kontakt:
Dr. des. Angela Müller, Leiterin AlgorithmWatch CH
mueller@algorithmwatch.ch | +41 76 516 91 78
Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zum Artificial Intelligence Act.