100 Tage Social-Media-Verbot für Jugendliche in Australien: Das sind die ersten Erkenntnisse
Christian Cohrs20.3.2026
OMR spricht mit den Stanford-Forscher*innen, die im Regierungsauftrag das Verbot und seine Folge beobachten
Seit dem 10. Dezember hat Australien die strengste Tür beim Zugang zu sozialen Medien. Wer unter 16 ist, kann keinen Account bei Tiktok, Instagram, Youtube und etlichen weiteren Anbietern mehr anlegen. Mit der drastischen Maßnahme will die Regierung den bekannten negativen Effekten von sozialen Medien auf die psychische Gesundheit vieler junger Menschen, auf ihr Körperbild und Essverhalten entgegenwirken sowie Gewalterfahrungen im Internet verhindern.
Die Maßnahme ist das derzeit größte soziale Experiment der Digitalwirtschaft. Er greift nicht nur in das Leben der betroffenen jungen Menschen massiv ein. Auch Marketer mit dieser Zielgruppe werden vor eine große Herausforderung stellt. Außerdem beobachten Regierungen weltweit sehr genau, welche Erfahrungen die Pioniere in Australien gerade machen.
Das ist der Hintergrund, vor dem das US-amerikanische Stanford Social Media Lab die Umsetzung der bislang weitreichendsten Jugendschutz-Regulierung auf dem Feld der sozialen Medien wissenschaftlich begleitet. OMR hat mit Jeff Hancock, Professor und Gründungsdirektor des Stanford Social Media Lab, sowie der an dem Projekt beteiligten Kommunikationswissenschaftlerin Anja Stevic gesprochen. Das sind ihre ersten Erkenntnisse über den Effekt des Verbots nach 100 Tagen.
OMR: Professor Hancock, kennen Sie den Begriff "begleitetes Trinken"?
Jeff Hancock: Nein, noch nie gehört.
OMR: Das haben wir hier in Deutschland. Es bedeutet, dass man im Alter von 14 Jahren unter Aufsicht der Eltern Bier und Wein trinken darf. Die Idee dahinter ist, Jugendliche an Alkohol zu gewöhnen. Was halten Sie von diesem Ansatz?
Hancock: Ich halte das für klug, wenn es darum geht, einen sicheren Einstieg zu schaffen und das Ganze etwas zu entmystifizieren. Mir gefällt, wenn etwas das Gefühl von Eigenverantwortung und Selbstbestimmung eines jungen Menschen stärkt.
Jeff Hancock ist Professor an der Stanford University und Direktor des Social Media Lab. Er erforscht psychologische Prozesse in sozialen Medien mittels Computerlinguistik. Seine Arbeit konzentriert sich auf Dynamiken wie Vertrauen und Täuschung sowie auf mentale Modelle über Algorithmen.
OMR: Wieso diskutieren wir im Fall von sozialen Medien dann Totalverbote?
Hancock: Hätten Sie mich vor drei oder vier Jahren gefragt, hätte ich wohl so etwas gesagt wie: Ein Verbot ist wahrscheinlich keine gute Idee, weil es die Eigenverantwortung junger Menschen und ihre Fähigkeit untergräbt, selbst zu lernen und ihr eigenes Ding zu machen. Aber die Dinge haben sich geändert. In den letzten Jahren, insbesondere durch einige Enthüllungen aus den Gerichtsverfahren hier in den USA, habe ich nicht mehr das Gefühl, dass wir den Plattformen vertrauen können, dass sie unsere Kinder schützen. Sie haben Entscheidungen getroffen, bei denen Geld wichtiger war als Sicherheit.
OMR: Gibt es Alternativen zu einem kompletten Verbot wie in Australien?
Hancock: Wenn man in einer Situation ist, in der man keinen Partner hat – eine Industrie, von der man glaubt, dass sie vertrauenswürdig ist und tatsächlich das Wohl der jungen Menschen im Blick hat –, dann braucht man solche "stumpfen" Instrumente. Und machen wir uns nichts vor, ein Verbot ist ein sehr stumpfes politisches Instrument. Ob ich glaube, dass das der beste Ansatz für junge Menschen ist? Anja und ich hoffen das herauszufinden. Aber ich habe das Gefühl, dass viele Eltern signalisieren: "Hey, wir brauchen Hilfe." Der Konflikt Nummer eins in Familien ist Bildschirmzeit. Nummer zwei ist Social Media. Eltern sind verzweifelt und suchen Hilfe. Und in dieser Situation landet man eben beim politischen Verbot.
Mit der Einführung des "Social Media Minimum Age", wie die neue Erweiterung des australischen Online Safety Acts aus dem Jahr 2011 offiziell heißt, wurde der Zugang zu einer Reihe von Online-Diensten für unter 16-Jährige gesperrt. Die Anbieter müssen durch Registrierung oder technische Zugangskontrollen wie anonymisierte Altersschätzung verhindern, dass Kinder und Jugendliche dort Konten eröffnen können. Bestehende Accounts wurden massenweise gelöscht. Betroffen sind Stand heute unter anderem Instagram, Tiktok, Snapchat, Youtube und Twitch, nicht aber Messenger-Dienste, Gaming-Plattformen wie Roblox oder Lego Play sowie Discord und Youtube Kids. Und: Auf Plattformen, die keinen Account zum Betrachten der Inhalte voraussetzen, haben Jugendliche weiterhin Zugriff.
Zusammen mit der Gesetzes-Erweiterung wurde auch die wissenschaftliche Evaluierung des Bans beschlossen. Die Regulierungsbehörde eSafety hat damit das Stanford Social Media Lab beauftragt, das wiederum mit einem Dutzend Universitäten zusammenarbeitet. Die umfangreiche Studie, die auf zwei bis fünf Jahre angelegt ist, soll Veränderungen in den Einstellungen und Normen bezüglich Social Media messen und beobachten, welche Bedeutung beabsichtigte Folgen (Kinder spielen mehr draußen, sinkende Bildschirmzeit, weniger Familienstreit) und unbeabsichtigte Folgen (Gefühl der Isolation, Abwanderung zu anderen digitalen Diensten) haben. Um das herauszufinden nutzt das Stanford Media Lab vier Datenquellen: eine umfangreiche Längsschnittstudie in Australien mit über 4.000 Kindern und Eltern, um Veränderungen über die Zeit zu sehen, Tracking der tatsächliche Nutzungszeit auf dem Smartphone, Interviews mit Betroffenen sowie Daten aus der Verwaltung wie Schulnoten, Fehlzeiten und Krankenhausbesuche.
OMR: Es ist noch früh, aber welches Feedback haben Sie bisher bekommen?
Hancock: Aus den ersten Analysen sehen wir: Zehn- bis Zwölfjährige finden es meist okay, oft weil sie ohnehin noch keinen Zugang hatten oder die Eltern es befürworten. 14- und 15-Jährige hingegen sind wirklich wütend. Sie fühlen sich ohne eigenes Verschulden "deplatformed". Sie argumentieren, dass Fehlverhalten oft von Erwachsenen ausgeht, aber sie bestraft werden. Für sie sind soziale Medien wichtig für Kontakte, Identität und die Organisation ihres Alltags. Das ist ein wichtiger Punkt für andere Länder: Vielleicht sollte man ein Gesetz einführen, das bei 13 Jahren beginnt und ältere Kinder schützt, damit sie sich nicht entrechtet fühlen. Ein zweiter Punkt ist die KI. Wenn wir junge Leute fragen, was sie stattdessen tun, ist die Antwort oft: ChatGPT oder Grok. Das ist wahrscheinlich nicht das, was die Politik im Sinn hatte. Soziale Medien sind zweifellos die Herausforderung des vergangenen Jahrzehnts, KI ist die aktuelle.
"Soziale Medien sind zweifellos die Herausforderung des vergangenen Jahrzehnts, KI ist die aktuelle."
OMR: Hatten Sie das erwartet?
Anja Stevic: Ich erinnere mich nicht an den exakten Moment, aber durch die Diskussionen wurde klar, dass die Abwanderung zu KI oder Gaming eine wahrscheinliche Folge ist. Beim Gaming bleibt die soziale Komponente durch Chats und Gruppen erhalten. KI-Companions sind ein interessanter, aber auch kritischer Punkt, den wir beobachten müssen.
OMR: Ich habe gelesen, Jugendliche umgehen das Verbot, indem sie etwa Youtube-Kommentarspalten als Chaträume nutzen.
Hancock: Das australische Gesetz richtet sich nur gegen die Plattformen. Nur die Plattform kann das Gesetz brechen. Wenn ein 13-jähriger das Verbot umgeht, ist das kein Gesetzesbruch. Wir sprechen von Adhärenz (die Befolgung vorab erklärter Ziele, Anm. d. Redaktion). Medienberichte deuten darauf hin, dass die Adhärenz nicht extrem hoch ist; viele Kinder, deren Accounts gelöscht wurden, sind über neue Konten zurückgekehrt. Unsere nächste Umfragewelle wird uns hier genauere Daten liefern.
Nicht eben subtil, aber durchaus realistisch wirbst die australische Regierung um Verständnis bei den Betroffenen. Bild: esafety.gov.au
OMR: Ist es nicht ein blinder Fleck in der Verbotsdebatte? Kinder finden doch immer einen Weg.
Hancock: Kinder sind kreativ. Wenn sie online gehen wollen, schaffen sie das meistens. Aber der entscheidende Punkt sind die sozialen Normen. Wenn meine Freunde wegen des Gesetzes nicht mehr auf einer Plattform sind, verliert sie für mich an Wert. Das australische Verbot versucht, eine ganze Gesellschaft gleichzeitig zu verändern. Wenn das "Kollektiv" verschwindet, ändert sich der Wert des Mediums für den Einzelnen.
OMR: Glauben Sie, dass Spiele und ChatGPT die nächsten Ziele für Verbote sind?
Hancock: Andere Regierungen fragen uns bereits danach. In Großbritannien sorgt man sich zum Beispiel um Extremismus in der Gaming-Kultur. Aber wo zieht man die Grenze?
Stevic: Es gab schon Versuche in China, Gaming zu regulieren. Aber Gaming unterscheidet sich psychologisch stark von Social Media. Es geht mehr ums Spielen und Wettbewerb als um reinen Medienkonsum.
Hancock: Genau. Der kritische Bereich sind die Chaträume und Discord-Server innerhalb der Spiele. Dort überschneiden sich die Welten.
Stevic: Ein wichtiger Punkt: Das Verbot betrifft oft nur die interaktiven Funktionen. Auf Tiktok kann man vielleicht noch passiv Inhalte schauen, ohne ein Profil zu haben. Das Verbot zielt auf die Funktionen ab, die riskante Kontakte oder algorithmische Abhängigkeiten fördern.
"Viele Probleme haben erst mit der Einführung von Newsfeeds begonnen"
OMR: In Deutschland diskutieren wir auch über verschiedene Ansätze, etwa ein Verbot von algorithmischer Kuration wie bei der "For You"-Page für Minderjährige. Halten Sie das für klüger?
Stevic: Die algorithmische Kuratierung ist definitiv ein Hauptproblem. Studien zeigen, dass viele Probleme erst mit der Einführung von Newsfeeds begonnen haben.
OMR: Die australische Regierung will das Gesetz basierend auf Ihrer Forschung eventuell anpassen. Geben Sie den Entscheidungsträgern bereits Input?
Hancock: Anja arbeitet direkt mit den Daten. Die eSafety-Kommission ist sehr offen für Ergebnisse – egal ob sie gut oder schlecht sind. Sie wollen keine Bestätigung, dass das Verbot funktioniert, sondern sie wollen wissen, was wirklich passiert.
Anja Stevic promovierte in Publizistik an der Universität Wien. Sie forscht zu den Auswirkungen der Smartphone-Nutzung auf Beziehungen und Wohlbefinden. Ihre Schwerpunkte liegen auf digitalem Stress bei Jugendlichen, mobiler Kommunikation und KI im Online-Dating.
Stevic: Wir schauen uns kurzfristig die Änderungen der Normen und Einstellungen an. Erst nach ein bis zwei Jahren können wir wirklich etwas über das psychische und physische Wohlbefinden sagen. Auch die digitale Kompetenz der Kinder ist ein wichtiger Faktor: Wissen sie nach dem Verbot mehr oder weniger über die Hintergründe der Plattformen?
OMR: In der Wissenschaft arbeitet man langfristig und weniger emotionalisiert als in den Medien. Wie gehen Sie mit dem Druck um, dass die Welt auf Ihre Ergebnisse wartet?
Hancock: Es ist stressig. Wir entwickeln gerade verschiedene Wege der Veröffentlichung. Wir wollen wissenschaftliche Paper in Fachjournalen schreiben, aber auch kurzfristig Berichte für die Öffentlichkeit liefern, da die Daten dringend gebraucht werden. Wir müssen Ergebnisse so aufbereiten, dass sie verständlich sind – zum Beispiel "40 Prozent der Kinder halten sich daran". Wir nehmen diese Verantwortung sehr ernst, weil wir wissen, wie sehr das andere Länder beeinflussen wird.
OMR: Werden Sie eigentlich von Lobbyisten kontaktiert?
Hancock: Sagen wir mal so: Das Interesse ist groß. Hier in Stanford lässt man uns weitgehend in Ruhe, aber wir bekommen E-Mails von allen Seiten. Doch wir überhören persönliche Ansichten zu diesem Thema. Wir nehmen Feedback zur Evaluation entgegen und konzentrieren uns auf die Zusammenarbeit mit der eSafety-Kommission und der Beratergruppe.
PolitikRegulierungSocial Media