Beitrag

Social Media & KI: Kinder und Jugendliche schützen – aber wie?

Anlässlich des Internationalen Tages der Kinderrechte beleuchten wir die aktuellen Diskussionen über die Auswirkungen von Social Media und Künstlicher Intelligenz auf Kinder und Jugendliche. Wir zeigen dabei auf, warum es in der Diskussion nicht nur um die Frage eines Verbots von Social Media gehen sollte. Und wie wir Kinder und Jugendlichen besser schützen können.

Ying-Chieh Lee & Kingston School of Art / betterimagesofai.org / creativecommons.org/licenses/by/4.0
Estelle Pannatier
Senior Policy Managerin
Angela Müller
Dr. Angela Müller
Geschäftsleiterin AlgorithmWatch CH | Gesellschafterin AlgorithmWatch

Ob KI-gestützte Spielzeuge, personalisierte Lernsysteme, Social-Media-Algorithmen oder KI-Gefährten: Kinder und Jugendliche kommen zunehmend mit algorithmischen und KI-Systemen in Berührung. Diese Systeme können jedoch auch negative Auswirkungen haben. So können sie beispielsweise Ungleichheiten verstärken und Vorurteile reproduzieren. Das kann sich langfristig auf die Zukunftschancen und Lebensumstände von Kindern auswirken. Mehr dazu gibt es in unserem Beitrag «So kann Künstliche Intelligenz Kinder benachteiligen» nachzulesen. Doch auch auf die Entwicklung und die psychische Gesundheit von Kindern und Jugendlichen können Algorithmen und KI womöglich einen Einfluss haben.

Welche Auswirkungen haben Social Media auf Kinder und Jugendliche?

Genau diese Frage steht in den aktuellen Debatten oft im Mittelpunkt – insbesondere, welche Auswirkungen Social Media auf Kinder und Jugendliche haben. Social-Media-Plattformen setzen algorithmische Empfehlungssysteme mit dem Ziel ein, Nutzende möglichst lange online zu halten: Je länger diese auf der Plattform verweilen und je öfters sie darauf interagieren, desto mehr Werbung kann ihnen angezeigt werden und desto mehr Geld verdient das Unternehmen dahinter. Entsprechend ordnen die Social-Media-Algorithmen die in den Feeds der Nutzenden angezeigten Inhalte danach, wie wahrscheinlich es ist, dass sie sie konsumieren, liken, teilen oder kommentieren. Dabei können auch polarisierende, emotionalisierende, hetzerische, aufwiegelnde, extreme oder bewusst falsche Inhalte verstärkt verbreitet werden. Das kann dazu führen, dass, insbesondere auch bei Kindern und Jugendlichen, Vorurteile verstärkt werden. Es kann das Risiko erhöhen, dass sie sich davon in ihrem Denken, Fühlen oder Handeln beeinflussen lassen. Etwa kann der soziale Vergleich mit idealisierten Bildern das Selbstwertgefühl beeinträchtigen.

Eine kürzlich von Amnesty International veröffentlichte Studie hat gezeigt, dass in Frankreich der «For You»-Feed von TikTok Kinder und Jugendliche, die sich für Inhalte zum Thema psychische Gesundheit interessieren, in einen Kreislauf aus Depressionen, Selbstverletzung und suizidalen Inhalten trieb. Innerhalb von nur drei bis vier Stunden nach der Nutzung des «For You»-Feeds von TikTok wurden Testkonten Videos ausgespielt, die Suizid romantisierten oder junge Menschen zeigten, die ihre Absicht, sich das Leben zu nehmen, äusserten – einschliesslich Informationen über Suizidmethoden. Trotz zunehmender Studien zu diesem Thema bleibt es jedoch schwierig, sich ein klares Bild von diesen Auswirkungen zu machen. In der Wissenschaft gibt es nämlich bis anhin keine abschliessende Evidenz darüber, inwiefern und auf welche Art Social Media die psychische Gesundheit von Kindern und Jugendlichen beeinträchtigt.

Wie können wir Kinder und Jugendliche besser schützen?

Wenn es darum geht, Kinder und Jugendliche auf Social Media besser zu schützen, beobachten wir eine oft polarisierte Debatte über eine Lösung, die auf dem Papier einfach erscheint: Sind wir für oder gegen ein Verbot von Social Media für Kinder unter 16 Jahren? Vorstösse in diese Richtung wurden bereits auf nationaler Ebene (Postulate 24.4480 & 24.4592) sowie auf kantonaler Ebene, wie etwa im Kanton Wallis, diskutiert. Die Problematik ist jedoch wohl komplexer, als sie ein generelles Verbot von Social Media zu lösen vermögen würde. Die Forderung danach darf das Kernproblem nicht verschleiern: Unsere öffentliche Debatte, in die wir grundsätzlich auch Jugendliche einbeziehen möchten, findet heute weitgehend auf privaten Online-Plattformen statt. Das Geschäftsmodell der dominanten Social-Media-Plattformen basiert auf Werbung; die Plattformen nutzen verhaltensbasierte Personalisierung, um unsere Nutzungsdauer (und damit die angezeigten Werbungen) zu maximieren. Dies macht es einfacher, Inhalte zu teilen und verbreiten, die für Einzelpersonen oder für die demokratische Debatte schädlich sind. Auch (mit KI rasch erstellte) Deepfakes, sexualisierte Inhalte, Hassrede, KI-generierter Blödsinn (AI Slop) oder Darstellungen von Gewalt können so einfach zugänglich und gut sichtbar sein, wenn Menschen (egal welchen Alters) sich auf Social Media bewegen. Die Plattformen nehmen dies in Kauf, um ihren Profit zu maximieren.

Um eine konstruktive öffentliche Debatte auf Social Media zu ermöglichen, müssen wir daher die Konzerne, die diese Plattformen betreiben, in die Verantwortung nehmen. Ein wichtiger Hebel dafür ist die laufende Plattformregulierung, deren Gesetzesentwurf der Bundesrat im Oktober 2025 in die Vernehmlassung geschickt hat. Wir müssen diese Regulierung sowie die künftigen Regulierungen rund um KI nutzen, um den Schutz und die Rechte von allen Menschen, die sich auf Social Media bewegen, zu stärken, insbesondere auch von vulnerableren Gruppen wie Kindern und Jugendlichen. Dies etwa, indem sogenannte «Dark Patterns» (Designfeatures wie etwa der «Infinite Scroll», also unendliche Timelines, die Nutzende dazu verleiten sollen, online zu bleiben), auf Maximierung der Interaktion ausgerichtete Algorithmen, verhaltensbasiertes Profiling oder gezielte Werbung aufgrund sensitiver Eigenschaften eingeschränkt werden. Zudem brauchen wir gemeinwohlorientierte und darunter auch jugendfreundliche Alternativen zu der Dominanz weniger globaler Plattformen. Entsprechend sollten alternative algorithmische Empfehlungssysteme, Plattformdesigns oder auch Plattformen entwickelt und gefördert werden.

Zentrale Puzzleteile im Umgang mit Social Media sind auch Medien- und Demokratiekompetenz. Diese müssen gestärkt werden. Dabei geht es einerseits darum, den Jugendlichen Kompetenzen zu vermitteln, die es ihnen ermöglichen, die Funktionsweise von Online-Plattformen, ihren Algorithmen und deren Auswirkungen zu verstehen. Andererseits müssen wir Kindern und Jugendlichen demokratische Prinzipien vermitteln können: etwa, was der Zugang zu verlässlicher Information für das Funktionieren einer demokratischen Gesellschaft bedeutet, warum wir einen starken und vielfältigen Journalismus brauchen und was die Bedeutung einer inklusiven, konstruktiven Debatte ist, an der alle teilnehmen können.

Zudem brauchen wir eine bessere Evidenzbasis in diesem Bereich: Unabhängige und interdisziplinäre Forschung zu den Funktionsweisen von Plattformalgorithmen sowie insbesondere zu ihren Auswirkungen auf Mensch und Gesellschaft, darunter auch auf Kinder und Jugendliche, muss vermehrt gefördert und finanziert werden. Denn wir wissen heute nicht genug über die Auswirkungen von Social Media und KI. Ohne eine solide Evidenzgrundlage ist es schwierig, die richtigen Regulierungsentscheidungen zu treffen.

KI-Bild- und Videogeneratoren, KI-Chatbots und KI-Gefährten nicht ausser Acht lassen

Schliesslich, wenn wir über Kinder- und Jugendschutz sprechen, dürfen wir nicht vergessen, dass nebst Social-Media-Algorithmen auch andere KI-Anwendungen, wie beispielsweise KI-Bild- und Videogeneratoren, KI Chatbots und KI-Gefährten (AI Companions), die zunehmend auch auf Online-Plattformen eingebaut werden, Kinder und Jugendliche beeinflussen können. Mit Bildgeneratoren können einfach Inhalte erstellt werden, die Gewalt darstellen, andere diffamieren oder sexistisch sind, wie ein Fall in Spanien gezeigt hat. KI-Gefährten werden von Jugendlichen zunehmend genutzt, um sich beraten oder begleiten zu lassen. Diese werden heute oft ohne adäquate Vorsichtsmassnahmen auf den Markt gebracht. So gab es bereits mehrere Fälle, wo sich Teenager nach langen Konversationen mit Chatbots wie ChatGPT tragischerweise das Leben genommen haben. Solche Schicksale sind nie monokausal und es wäre falsch und anmassend, als einzige Ursache den Chatbot heranzuziehen. Sie zeigen aber: Algorithmische und KI-Systeme dürfen kein Spielplatz ohne jegliche Schutzmassnahmen sein – besonders nicht für Jugendliche, die in sensiblen Phasen ihres Lebens stehen. Entsprechend müssen die Betreiber von KI-Tools Verantwortung dafür tragen, Massnahmen zu ergreifen, um Nutzende angemessen zu schützen.

AlgorithmNews CH – abonniere jetzt unseren Newsletter!

Ich bin mit der Verarbeitung meiner Daten einverstanden und weiss, dass ich den Newsletter jederzeit abbestellen kann.