Die Landesanstalt für Kommunikation (LFK) setzt sich als Medienanstalt für Baden-Württemberg für einen zeitgemäßen Jugendschutz ein. Als Aufsichtsbehörde geht sie unter anderem gegen Jugendschutzverstöße auf Social-Media-Plattformen vor, sie betreibt aber auch Forschung zur Mediennutzung von Kindern und Jugendlichen und fördert die Medienkompetenz.
Social-Media-Verbot: Die wichtigsten Argumente im Check
Auf dieser Seite geben wir einen Überblick über die wichtigsten Argumente in der aktuellen Debatte um ein Social-Media-Verbot, ordnen diese ein und verweisen auf nützliche Angebote zur Medienkompetenzförderung sowie zum Jugendmedienschutz.
Im politischen Austausch wird unter dem Schlagwort „Social-Media-Verbot“ derzeit intensiv über ein generelles Mindestalter für die Nutzung von Social Media diskutiert. Die vorgeschlagenen Altersgrenzen variieren, die einen halten beispielsweise 13 Jahre für angemessen, andere präferieren 14, 15, 16 oder gar 18 Jahre als Mindestalter für die Nutzung von Social-Media. Mit einem Verbot verbinden dabei nicht wenige die Erwartungshaltung, die negativen Folgen, die die Nutzung von Social Media verursachen kann, zu bewältigen.
Legitime Argumente werden in der Debatte jedoch immer wieder mit undifferenzierten, irreführenden oder sogar falschen Aussagen vermischt. Zudem wird nicht immer zwischen der Frage eines generellen Social-Media-Verbots und dem Verbot von Handys an Schulen differenziert.
Über die LFK
Im Folgenden werden häufig genannte Argumente zu einem Social-Media-Verbot aufgegriffen und eingeordnet. Dadurch will die LFK aus Jugendschutzsicht zu einer konstruktiveren und sachlicheren Debatte über ein Social-Media-Verbot für Kinder und Jugendliche beitragen. Ziel der Übersicht ist es dabei nicht, die Frage eines Social-Media-Verbots endgültig, eindeutig und umfassend zu beantworten.
Stattdessen soll an die Thematik herangeführt und dafür sensibilisiert werden, dass die Beantwortung der Frage, wie Minderjährige wirksam vor Online-Risiken geschützt werden können, komplexer ist, als es in der öffentlichen Debatte um ein Verbot teilweise dargestellt wird.
Die folgende Übersicht ist nicht abschließend und wird kontinuierlich aktualisiert.
Argumente für ein Verbot
Aktuell werden Minderjährige auf Social Media Angeboten mit unterschiedlichsten Risiken konfrontiert, die nicht altersgerecht sind. Dazu zählen Cybergrooming, Cybermobbing, gefährliche Online-Challenges, Kostenfallen, Hassrede, Inhalte, die Essstörungen verherrlichen, aber auch plattformspezifische Gestaltungselemente wie Autoplay, Endlos-Scrollen und Belohnungssysteme, die eine exzessive Nutzung fördern können.[1] Die bestehenden Maßnahmen zum Schutz von Minderjährigen reichen gleichzeitig nicht aus.
Die daran anknüpfende Frage, wie Kinder und Jugendliche effektiver vor Online-Risiken geschützt werden, wird jedoch unterschiedlich beantwortet. Social-Media-Plattformen für Minderjährige zu verbieten, ist ein Lösungsvorschlag, der umstritten ist. Alternativ oder ergänzend werden beispielsweise eine altersgerechte Gestaltung von Social Media, mehr Medienkompetenz, eine Stärkung der Aufsichtsbehörden oder Public-Health-Aufklärungskampagnen gefordert.[2]
[1] Für eine Übersicht zu Online-Risiken siehe beispielsweise den Gefährdungsatlas der BzKJ: https://www.bzkj.de/bzkj/service/publikationen/gefaehrdungsatlas-digitales-aufwachsen-vom-kind-aus-denken-zukunftssicher-handeln-aktualisierte-und-erweiterte-2-auflage--197812
Ob und unter welchen Voraussetzungen Kinder und Jugendliche durch ein Social-Media-Verbot effektiv vor Online-Risiken geschützt werden würden, ist umstritten. Bislang gibt es zu dieser Frage kaum empirische Evidenz und es fehlt an Erkenntnissen dazu, wie sich die ersten Verbote in anderen Ländern mittel bis langfristig auswirken. Ebenso unklar ist, welche unbeabsichtigten Folgeeffekte ggf. eintreten oder inwieweit sich Erfahrungen aus anderen Ländern überhaupt übertragen lassen (vgl. Argument 7). Angesichts der vielfältigen Online-Risiken – die Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) identifiziert in ihrem Gefährdungsatlas immerhin über 40 Medienphänomene, die einer unbeschwerten Teilhabe von Kindern und Jugendlichen im Wege stehen können [1] – ist außerdem denkbar, dass durch eine Maßnahme nicht alle Risiken gleichermaßen reduziert werden könnten. Den Erfolg eines Verbots zu messen ist vor diesem Hintergrund komplexer als es auf den ersten Blick scheint.
So könnte ein Verbot beispielsweise dazu führen, dass algorithmische Empfehlungssysteme und Mechanismen, die eine exzessive Nutzung fördern, weniger durch Minderjährige genutzt werden. Gleichzeitig könnten Minderjährige in Folge eines Verbots aber auf Kommunikationsräume ausweichen, in denen sie stärker als zuvor von anderen Risiken betroffen sind, auch wenn dies auf den ersten Blick überraschen mag. So legt eine Studie der Landesanstalt für Medien NRW beispielsweise nahe, dass der Instant-Messenger-Dienst WhatsApp zwar unter anderem gerade deshalb von Minderjährigen und Eltern gleichermaßen als vertraut und sicher wahrgenommen wird, weil hier u. a. keine algorithmischen Empfehlungssysteme wie auf TikTok und Instagram vorhanden sind. In einem zweiten Schritt scheint dies jedoch dazu zu führen, dass bestehende Risiken unterschätzt werden: Kinder und Jugendliche sind auf WhatsApp besonders offen, teilen auch in öffentlichen und reichweitenstarken Kanälen intime und personenbezogene Daten wie den Schulweg oder den Wohnort oder zeigen sich leicht bekleidet und in körperbetonten Posen. Gleichzeitig überwachen Eltern die Nutzung von WhatsApp in der Regel deutlich weniger als die von Social-Media-Plattformen. In der Folge könnte – trotz fehlender algorithmischer Empfehlungssysteme, Endlos-Scrollen & Co.– das Risiko steigen, dass Minderjährige Opfer von Cybergrooming, sexueller Belästigung, Identitätsdiebstahl, Stalking, Manipulation, Erpressung, Betrug usw. werden.[2]
Zudem könnten Jugendliche aufgrund des Verbots auch auf weniger regulierte Dienste ausweichen oder Social-Media-Betreiber könnten Schutzmaßnahmen reduzieren, die über das Verbot hinaus gehen (vgl. hierzu auch Argument 6).
Daher bräuchte es für einen effektiven Schutz von Kindern und Jugendlichen vor Online-Risiken in jedem Fall Schutzkonzepte auch für diejenigen Minderjährigen, die Wege finden, das Verbot zu umgehen oder auf andere Dienste ausweichen (vgl. Argument 12 und Argument 13).
Im Sinne eines effektiven Jugendmedienschutzes sollten außerdem auch die Arbeit von Aufsichtsbehörden nicht unbeabsichtigt bei einem Verbot unterminiert werden. Gleiches gilt für die Vermittlung von Medienkompetenz (vgl. Argument 11 und Argument 15). Denn auch im Falle eines Verbots müssten Minderjährige stärker als bisher auf den digitalen Alltag vorbereitet werden, da die im Rahmen eines Verbots definierte Altersgrenze irgendwann überschritten wird.
Vor diesem Hintergrund wird deutlich: Ein Verbot führt keineswegs automatisch zu mehr Schutz für Kinder und Jugendliche, auch wenn in der Debatte bisweilen dieser Eindruck erweckt wird.
Neben einem Verbot kommen auch mildere Alternativen wie eine altersangemessene Gestaltung von Social Media, Medienkompetenzprojekte, oder Public-Health-Aufklärungskampagnen in Betracht, um Minderjährige vor Online-Risiken zu schützen.
Diese Ansätze wurden bislang nicht ausgeschöpft. Beispielsweise können Nutzenden mittlerweile zwar bei vielen Social-Media-Angebote technische Schutzlösungen wie Inhalte-Filter und Kontakt- oder Nutzungszeitbeschränkungen aktivieren, um so eine möglichst altersangemessene Nutzung sicherzustellen. Solche Maßnahmen sind aber in der Regel nicht standardmäßig für Minderjährige aktiviert, weil es an einer verlässlichen Altersfeststellung fehlt. Dies hat zur Folge, dass sie häufig ungenutzt bleiben.
Gleichzeitig verpflichtet der seit dem 17. Februar 2024 vollumfänglich geltende Digital Services Act (DSA) Anbieter von Online-Plattformen, ihre Dienste altersangemessen für Minderjährige zu gestalten. Bei Verstößen drohen Bußgelder bis zu sechs Prozent des weltweiten Jahresumsatzes. Die zuständige EU-Kommission hat mittlerweile zwar erste Verfahren eingeleitet.[1] Der Ansatz einer altersangemessenen Gestaltung kann jedoch erst dann als gescheitert gelten, wenn entsprechende Regelungen auch konsequent angewandt wurden und sich als nicht effektiv oder nicht durchsetzbar erwiesen haben.
Damit sich Minderjährige zu eigenverantwortlichen und gemeinschaftsfähigen Individuen entwickeln können, bedarf es Regeln, die Erziehungsberechtigte, Institutionen wie Schule oder auch der Staat festlegen. Aus medienpädagogischer Sicht sollten restriktive Eingriffe jedoch begründet, dialogisch vermittelt und altersgerecht gestaltet sein. Ansonsten steigt das Risiko dafür, dass Kinder und Jugendliche die Vorgaben ablehnen, ein Misstrauen gegenüber handelnden Erwachsenen entwickeln oder kreative Wege finden, um ein Verbot zu umgehen. Außerdem steigt dann das Risiko dafür, dass das Verbotene erst recht als attraktiv wahrgenommen wird [1].
Dies gilt ausdrücklich auch für ein Social-Media-Verbot, welches nicht nur den Zugang zu einzelnen Inhalten oder Inhaltekategorien untersagt, sondern für viele Minderjährige einen sehr weitreichenden Eingriff in den Lebensalltag bedeuten würde. Damit könnte auch die Motivation, das Verbot zu umgehen, für viele Minderjährige höher sein, als wenn beispielsweise nur der Zugang zu konkreten risikobehafteten Elementen eingeschränkt werden würde.
Mit einem Social-Media-Verbot Anreize dafür zu schaffen, dass Eltern medienbezogene Gespräche nicht führen müssen, wäre vor diesem Hintergrund womöglich ebenfalls kontraproduktiv und zu kurz gedacht. Spätestens wenn ein Verbot in der Praxis durch viele Minderjährige umgangen wird, dürften Eltern wieder vor der Entscheidung stehen, wann sie ihren Kindern den Zugang zu welchem Dienst erlauben. Minderjährige werden sich dann kaum mit der Begründung zufriedengeben, dass Social-Media nun mal von Rechts wegen erst durch ältere Personen genutzt werden darf.
Zugleich ist nicht von der Hand zu weisen, dass viele Erziehungsberechtigte mit dem Thema Medienerziehung überfordert sind. Sie müssten daher in jedem Fall stärker durch niedrigschwellige Medienkompetenz- und Informationsangebote unterstützt und dazu befähigt werden, mit ihren Kindern reflektiert und kompetent über medienbezogene Themen sprechen zu können. Parallel dazu müssen Bildungseinrichtungen ebenso in die Lage versetzt werden, Minderjährige auf die Nutzung von Social Media und die digitale Lebensrealität allgemein vorzubereiten. Unterstützung dabei, gemeinsam mit Kindern eine verantwortungsvolle Mediennutzung zu entwickeln, findet sich u. a. unter https://www.mediennutzungsvertrag.de/ und https://www.klicksafe.de/. Einen Überblick über technische Schutzlösungen für Geräte, Dienste und Apps gibt die Webseite https://www.medien-kindersicher.de/startseite.
[1] Siehe hierzu etwa Von Gross, Friederike; Tappe, Eik-Henning & Weßel, André (2025). Altersgrenzen für Social Media? Die Perspektive der Medienpädagogik. BzKJAKTUELL, 2, S. 12.
Dieser Vergleich ist problematisch: Substanzen wie Nikotin oder Alkohol können nicht altersgerecht für Minderjährige gestaltet werden, Social-Media-Plattformen hingegen schon. Drogenvergleiche erzeugen daher den irreführen Eindruck, es gäbe keine Alternative zu einem Social-Media-Verbot.
Ob ein pauschales Verbot für Minderjährige oder bereits die Debatte darüber Plattformbetreibende dazu bewegen, ihre Dienste für einige oder alle Nutzenden sicherer zu gestalten, ist fraglich. Ein Verbot könnte im Gegenteil sogar dazu führen, dass Plattformbetreibende ihre Schutzmaßnahmen reduzieren und nur noch gesetzlich definierte Minimalstandards erfüllen:[1] Warum sollten Plattformbetreibende, die sich an das Verbot halten, schließlich noch weiter in Jugendschutzmaßnahmen investieren, wenn ihre Dienste ohnehin als „jugendfrei" gelten? Und warum sollte investiert werden, wenn man trotz Investitionen noch immer genauso von einem Verbot betroffen wäre, wie Dienste, die diese Investitionen nicht tätigen? (vgl. hierzu auch Argument 15).
Ein Einlenken der Plattformbetreibenden wäre schon eher denkbar, wenn ein Verbot nur für jene Plattformen gelten würde, die keine verlässliche Altersfeststellung und keine standardmäßig voreingestellte altersgerechte Gestaltung vorweisen können. So hätten Betreiber einen Anreiz, kontinuierlich an einer jugendschutzkonformen Gestaltung ihrer Social-Media-Plattformen zu arbeiten und sich für das Thema Jugendschutz einzusetzen.
In Australien trat Ende 2025 ein Gesetz in Kraft, das Social-Media-Plattformen verpflichtet, angemessene Maßnahmen zu ergreifen, damit Australierinnen und Australier unter 16 Jahren kein Konto erstellen oder weiter nutzen können. Noch ist es aber zu früh, um vollumfänglich beurteilen zu können, ob das Gesetz Minderjährige effektiv vor schädlichen Online-Einflüssen schützen kann.
Zum einen ist unklar, ob das Verbot in seiner derzeitigen Form überhaupt bestehen bleibt, da bereits Klage dagegen eingereicht wurde. Zum anderen legen erste Medienberichte nahe, dass zumindest bislang viele Minderjährige das Verbot leicht umgehen können und weiter auf Social Media aktiv sind.[1] Daneben finden sich Medienberichte, laut denen australische Minderjährige aufgrund des Verbots Kontakt zu Hilfsorganisationen aufsuchten, weil sie von ihrem Netzwerk an Unterstützerinnen und Unterstützern abgeschnitten worden seien.[2]
Kursierende Zahlen zu den nach dem Verbot deaktivierten Accounts, die Minderjährigen gehört haben sollen, sind wiederum wenig aussagekräftig, wenn ebenjene Minderjährige im Anschluss beispielsweise problemlos einen neuen Account erstellen oder auf andere – möglicherweise nicht weniger problematische – Dienste ausweichen können.
Davon abgesehen wären bei einem Social-Media-Verbot in Deutschland rechtliche Hürden und Besonderheiten zu beachten, die es im Fall von Australien so nicht gibt (vgl. Argument 10 und Argument 11).
Prominente Befürworter eines Social-Media-Verbots wie der australische Premierminister Anthony Albanese verbinden mit dem Verbot die Hoffnung, dass Minderjährige wieder mehr Zeit draußen verbringen oder Spot treiben.[1] Es ist jedoch nicht auszuschließen, dass die Social-Media-Nutzung bei einem Verbot teilweise oder ganz durch andere bildschirmbasierte Tätigkeiten (andere Kommunikationsdienste, Gaming, Fernsehen etc.) ersetzt werden würde.[2]
Der Anteil der Jugendlichen, die mehrmals pro Woche Sport treiben, blieb außerdem in den letzten 25 Jahren – trotz des Aufkommens von Social Media – zumindest in Deutschland relativ konstant.[3] Für Veränderungen bei der Freizeitgestaltung scheinen außerdem nicht nur Designelemente auf Social-Media relevant zu sein, die eine exzessive Nutzung fördern. Befragt nach den Hindernissen dafür, draußen zu spielen, gaben etwa bei einer Untersuchung des Deutschen Kinderhilfswerk e. V. jeweils 33 Prozent der Minderjährigen und Eltern an, es gäbe keine geeigneten Orte zum Spielen in der Nähe.[4] Jugendliche dürften auch vor diesem Hintergrund auf digitale Orte setzen, die flexibel, zeit- und ortsunabhängig sind. Digitale Kommunikationsräume und auch Social Media bieten dabei insbesondere für Jugendliche, die aufgrund von Schüchternheit oder ihrer sexuellen Orientierung im analogen Umfeld nur begrenzt Anschluss finden, die Möglichkeit, Zugehörigkeit zu erleben und sich mit Fragen zu Identität und Sexualität auseinanderzusetzen.[5]
Am Umfang der Social-Media-Nutzung kann ferner nicht unmittelbar die tatsächliche Gefährdung für Kinder und Jugendliche abgelesen werden. Minderjährige können auch bei einer geringeren Nutzungszeit bzw. bei einer Nutzung von Diensten, die womöglich nicht von einem Social-Media-Verbot umfasst wären, mit belastenden Inhalten, Cybermobbing, Cybergrooming, Kostenfallen usw. konfrontiert werden.
Das zeigt: Bildschirmnutzung ist nicht immer automatisch schlecht, sie würde bei einem Verbot nicht unbedingt reduziert werden und wenn die Social-Media-Nutzung reduziert werden soll, müssen auch geeignete Alternativen geschaffen werden.
[1] Vgl. https://www.zeit.de/gesellschaft/2025-12/australien-social-media-verbot-schuelervertreter-kritik
[4] Deutsches Kinderhilfswerk (2020). Kinderreport 2020: Die Bedeutung des Draußenspielens für Kinder, abrufbar unter https://www.dkhw.de/informieren/unsere-themen/kinderrechte/kinderreport/, S. 16.
Teilweise hat sich bei Befragungen eine relative Mehrheit der befragten Jugendlichen für ein Social-Media-Verbot ausgesprochen.[1] Diese Ergebnisse sollten erst genommen werden, da sie den Betroffenen eine Stimme geben und die Interessen von Jugendlichen bei Regulierungsentscheidungen berücksichtigt werden sollten. Entsprechende Umfrageergebnisse sollten aber trotzdem aus mehreren Gründen nicht unhinterfragt zur Legitimierung weitreichender Grundrechtseinschränkungen herangezogen werden.
Zum einen könnte bei Umfragen der Aspekt der sozialen Erwünschtheit eine Rolle spielen, das heißt, Jugendliche könnten sich verstärkt für ein Verbot aussprechen, weil sie glauben, dass diese Antwort von ihnen erwartet oder positiver wahrgenommen wird. Zum anderen deuten bestehende Umfragen darauf hin, dass die Zustimmung zu einem Verbot bei älteren Jugendlichen höher ist, also bei Befragten, die möglicherweise selbst nicht von einem Verbot betroffen wären oder dies zumindest glauben. Daneben wird teilweise nur relativ einseitig abgefragt, ob die Befragten für oder gegen ein Verbot wären. Ob die Befragten beispielsweise weniger grundrechtseinschränkende Schutzmaßnahmen gegenüber einem Verbot präferieren würden, bleibt so unklar. Hinzu kommt, dass die möglichen Hürden und zu befürchtenden negativen Folgen eines Verbots nicht allen bekannt, die konkrete Ausgestaltung derzeit kaum absehbar und noch viele Fragen ungeklärt sind. Die Befürwortung oder Ablehnung eines Social-Media-Verbots durch Jugendliche und Erwachsene gleichermaßen ist auch vor dem Hintergrund dieses Informationsdefizits zu betrachten.
Gleichzeitig äußern sich Jugendliche in Untersuchungen auch kritisch gegenüber einem Social-Media-Verbot. So befürchten sie etwa, soziale Kontakte zu verlieren oder Informationen zu verpassen.[2]
Zusammengefasst können bestehende Untersuchungen durchaus Ausdruck eines Bedürfnisses vieler Jugendlicher nach besserem Schutz vor Online-Risiken sein. Sie sollten aber nicht als Beleg dafür herhalten, dass ein Verbot dieses Bedürfnis auch am besten erfüllen und mit anderen Bedürfnissen wie Befähigung und Teilhabe optimal austarieren würde.
Argumente gegen ein Verbot
In Bezug auf ein nationales Social-Media-Verbot sind mehrere rechtliche Hürden zu beachten:
Anwendungsvorrang von EU-Gesetzgebung
Mit dem Digital Services Act (DSA) liegt eine unmittelbar geltende Europäische Verordnung vor, die nationale Vorschriften im Anwendungsbereich überlagert. Eine nationale Altersgrenze für die Nutzung von Social Media könnte daher aus Sicht vieler Rechtswissenschaftlerinnen und Rechtswissenschaftler am Anwendungsvorrangs des DSA scheitern.[1]
Mit Sicherheit lässt sich dies aber erst bewerten, wenn es entsprechende Rechtsprechung oder Auslegungsleitlinien der EU-Kommission gibt.[2]
Ausnahmen durch die AVMD-Richtlinie
Video-Sharing-Plattformen könnten aufgrund der Audiovisuellen Mediendienste-Richtlinie (AVMD-RL) vom Anwendungsvorrang des DSA ausgenommen sein. Auch die AVMD-RL dürfte jedoch kein vollständiges Zugangsverbot zu Social Media für Nutzende rechtfertigen, die eine bestimmte Altersgrenze unterschreiten.[3]
Abgesehen davon wären hiervon einige Social-Media-Plattformen nicht umfasst, weil auf ihnen statt nutzergenerierten Sendungen und Videos beispielsweise eher Fotos oder Textbeiträge zur Verfügung gestellt werden.[4]
Dadurch wäre ein Verbot leicht zu umgehen.
Herkunftslandprinzip
Bei einem Verbot wäre außerdem das sogenannte Herkunftslandprinzip zu beachten. Dieses besagt, dass für eine Social-Media-Plattform, die sich in einem EU-Mitgliedstaat niedergelassen hat, nur die jeweils nationalen Rechtsvorgaben dieses Mitgliedstaats gelten. Ausnahmen sind nur für behördliche Einzelmaßnahmen möglich, d.h. beispielsweise, wenn die LFK als Medienanstalt gegen konkrete Inhalte auf einer konkreten Plattform vorgeht.
Ein allgemeines Verbot wäre als deutsche Vorschrift daher voraussichtlich nur für Anbieter aus Deutschland oder dem außereuropäischen Ausland bindend, nicht aber für die meisten Social-Media-Plattformen, die ihren EU-Hauptsitz in Irland oder einem anderen EU-Mitgliedstaat haben. Bei Plattformbetreibenden aus dem außereuropäischen Ausland wäre die Rechtsdurchsetzung wiederum erschwert, weil Maßnahmen deutscher Behörden nicht ohne weiteres im Ausland zu vollstrecken.[5]
[1] Siehe hierzu etwa https://leibniz-hbi.de/die-huerden-eines-social-media-verbots-in-deutschland/ oder Stelle zur Durchsetzung von Kinderrechten in digitalen Diensten (2025). Altersgrenzen für Social Media? Perspektive der Medienregulierung Die KidD im Einsatz für sichere und altersgerechte Online-Angebote, 2, S. 20.
Egal ob nationales oder EU-weites Social-Media-Verbot, in beiden Fällen wäre außerdem das Prinzip der Verhältnismäßigkeit zu beachten. Dabei gilt, dass ein Verbot die Grundrechte der Plattformbetreibenden und insbesondere die der betroffenen Kinder und Jugendlichen erheblich beschneiden würde. Grundrechtseinschränkungen sind jedoch nur dann möglich, wenn die geplanten Maßnahmen einen legitimen Zweck verfolgen, geeignet, erforderlich und angemessen sind.
Dass ein Verbot geeignet ist, um schädliche Online-Einflüsse zu verhindern, kann beispielsweise in Frage gestellt werden, weil es kaum empirische Belege für die positiven Effekte von Social-Media-Verboten gibt, negative Effekte denkbar sind und ein Verbot leicht umgehbar sein könnte.[1]
Gegen die Erforderlichkeit würde sprechen, dass es mildere Mittel gäbe, mit denen das gleiche Ergebnis erzielt werden könnte. So wäre beispielsweise alternativ eine altersangemessene Gestaltung von Plattformen möglich, wodurch Minderjährige weniger in ihrer digitalen Teilhabe eingeschränkt werden würden.[2]
Gegen die Zumutbarkeit eines Verbots könnte wiederum sprechen, dass ein Social-Media-Verbot einen erheblichen Grundrechtseingriff für die betroffenen Plattformbetreibenden und Minderjährigen bedeuten würde.[3] Neben den verfassungsrechtlich verbürgten Rechten und Freiheiten wie der Informationsfreiheit und Meinungsfreiheit wären dabei auch die Kinderrechte auf Befähigung und Teilhabe betroffen.[4]
So könnte ein Verbot etwa verhindern, dass Kinder und Jugendliche auf den betroffenen Plattformen auf relevante Informationen und Unterhaltungsangebote zugreifen und mit Freunden und Gleichaltrigen interagieren können, obwohl viele Inhalte auf Social-Media-Plattformen harmlos oder sogar vorteilhaft für sie sind.[5] Bei einem Verbot von Social Media für Minderjährigen ist mit Blick auf den Aspekt der Teilhabe außerdem zu bedenken, dass in vielen Bundesländern bei Landtagswahlen und Kommunalwahlen bereits 16-Jährige wählen dürfen (vgl. Argument 17).
Fraglich wäre auch, wann und wie Minderjährige bei einem Verbot zu einer verantwortungsvollen Social-Media-Nutzung befähigt werden sollen. Einerseits könnten sich Eltern, wie auch Bildungseinrichtungen auf das Verbot zurückziehen. Andererseits ist das altersgerechte, schrittweise Erlernen des Umgangs mit Social Media im Falle eines Verbotes auch in einem pädagogischen Kontext nur noch schwer vorstellbar. Eine Befähigung von Minderjährigen wäre zugleich insbesondere dann nicht gegeben, wenn Minderjährigen zunächst gar kein Zugriff auf Social Media erlaubt wäre und sie dann mit Überschreiten einer Altersgrenze unvorbereitet mit allen schädlichen Elementen konfrontiert wären.
Abgesehen davon würden auch viele weitere Problematiken und Bedenken bei einem EU-weiten Verbot bestehen bleiben (vgl. beispielsweise Argument 12 und Argument 15).
Die Frage, welche Dienste von einem Verbot erfasst sein sollen, ist nicht zu unterschätzen: Wären nur wenige große Social-Media-Plattformen von einem Verbot erfasst, blieben die Risiken auf anderen Diensten bestehen. Zudem wäre das Verbot dann schnell umgehbar, indem einfach auf weiterhin frei zugängliche Dienste ausgewichen wird.
Ein Verbot könnte sich außerdem auf bestimmte Dienste oder eine bestimmte Dienstkategorie beziehen oder aber auf alle Dienste, die bestimmte Funktionalitäten aufweisen, die als problematisch eingestuft werden (manipulative Designs, Autoplay, Endlos-Scorllen etc.).
Gleichzeitig ist davon auszugehen, dass Risiken für Kinder und Jugendliche überall dort bestehen, wo Kommunikation und Interaktion möglich ist. Algorithmische Empfehlungssysteme oder Elemente wie Autoplay und Endlos-Scrollen sind zwar nicht überall im Netz gleichermaßen präsent. Mit extremistischen Inhalten können Minderjährige aber beispielsweise auch in beliebten Online-Games oder auf weitverbreiteten Gaming (-nahen) Plattformen konfrontiert werden.[1] Cybergrooming oder Cybermobbing sind ebenfalls keine Social-Media-spezifischen Phänomene. Entsprechende Erfahrungen machen Minderjährige auch auf Messenger-Diensten wie WhatsApp oder in Online-Games (vgl. hierzu auch Argument 2).[2] Gleiches gilt auch für entwicklungsbeeinträchtigende Inhalte zu Themen wie Selbstmord oder Selbstverletzung.[3]
Die „Lösung“ des Verbots birgt in diesem Zusammenhang das Risiko, dass sie nach und nach auf weitere Angebote ausgeweitet wird, weil diese ebenfalls von Minderjährigen genutzt werden und als riskant gelten.[4]
Wären auch Instant-Messenger-Dienste, Gaming (-nahe) Plattformen oder generell Dienste mit Chat und Kontaktfunktion von einem Verbot umfasst, so wären die Grundrechteeinschränkungen für die Betroffenen jedoch enorm. Minderjährigen würde digitale Teilhabe und niedrigschwellige Kommunikation dann nahezu komplett verwehrt.
Es würde somit zu kurz greifen, bei der Frage des Jugendschutzes ausschließlich die „klassischen“ Social-Media-Plattformen in den Blick zu nehmen und hier isoliert auf Verbote zu setzen. Verbote stoßen spätestens mit Blick auf die Vielfalt der Angebotslandschaft und die Mediennutzungsgewohnheiten von Minderjährigen an ihre Grenzen. Ein effektiver Jugendschutz setzt demgegenüber voraus, dass digitale Räume in ihrer Vielfalt Berücksichtigung finden und Schutzstrategien breit gedacht und miteinander kombiniert werden.
[1] Vgl. beispielsweise https://www.blm.de/files/pdf2/forschungsgutachten-gaming-und-rechts_extremismus_langfassung.pdf. Zur Nutzung von WhatsApp, Online-Games und Gaming (nahen-)Plattformen durch Minderjährige siehe beispielsweise https://mpfs.de/app/uploads/2025/05/KIM-Studie-2024.pdf und https://mpfs.de/app/uploads/2025/11/JIM_2025_PDF_barrierearm.pdf
[2] Vgl. beispielsweise https://www.medienanstalt-nrw.de/fileadmin/user_upload/Forschung/Cybergrooming/LFM_Cybergrooming_Studie_Mai_2025.pdf oder https://www.barmer.de/resource/blob/1337544/4a6854689c90dde2eaea6849bc4767c3/sinus-studie-jugendbericht-2024-2025-data.pdf
Wie leicht es Minderjährigen gemacht würde, ein Social-Media-Verbot zu umgehen, hinge zwar von der konkreten Ausgestaltung und Durchsetzung des Gesetzes ab. Dass zumindest ein Teil der Minderjährigen mittels VPN, durch ältere Geschwister, Accounts von Eltern usw. trotz Verbot weiter auf Social-Media zugreifen würde, ist aber wahrscheinlich (vgl. hierzu auch Argument 7 bzw. das Beispiel Australien). Hinzu kommt, dass Minderjährige auf andere Dienste ausweichen könnten, welche nicht von dem Verbot umfasst wären oder dieses ignorieren und ggf. noch weniger reguliert wären. Zur berücksichtigen wäre ferner, dass einige Dienste wie YouTube zumindest bislang mit Einschränkungen auch genutzt werden können ohne, dass eine Anmeldung erfolgt oder ein Konto erstellt wird. Im Fall eines Verbots wäre unklar, ob diese Möglichkeit eingeschränkt werden soll, sodass diese Dienste nur noch von Personen genutzt werden können, die über ein Konto verfügen und deren Alter überprüft wurde.
Bei einem Social-Media-Verbot müsste vor diesem Hintergrund auch eine Antwort auf die Frage gefunden werden, wie jene Minderjährige besser geschützt werden können, die in der ein oder anderen Form weiterhin auf Social-Media oder andere, nicht weniger problematische Dienste zugreifen.
Damit ein Verbot effektiv wäre, braucht es verlässliche Methoden der (KI-basierten) Altersschätzung oder Altersverifikation bzw. Altersfeststellung. Die Kommission für Jugendmedienschutz (KJM) hat hier in den letzten Jahren bereits über 100 unterschiedliche Konzepte aus Jugendschutzsicht geprüft und positiv bewertet (https://www.kjm-online.de/themen/technischer-jugendmedienschutz/unzulaessige-inhalte/).
Gemäß KJM erfolgt dann eine verlässliche Altersverifikation, wenn zwei Punkte gegeben sind: eine zumindest einmalige persönliche Identifizierung (Altersüberprüfung) und eine Authentifizierung beim einzelnen Nutzungsvorgang, damit sichergestellt wird, dass nur die altersgeprüfte Person Zugang hat. Angebote zur Altersfeststellung sind beim Online-Banking oder in anderen Bereichen, in denen sensible Daten anfallen, längst Alltag.
Es ist davon auszugehen, dass einige Minderjährige mittels VPN, durch ältere Geschwister, Freundinnen und Freunde oder die Geräte und Accounts ihrer Eltern weiter mit Social-Media konfrontiert wären, selbst wenn Plattformbetreiber die gesetzlichen Mindeststandards eines Verbots erfüllen. Gleichzeitig steht aber zu befürchten, dass die LFK als Medienanstalt nicht mehr gegen entwicklungsbeeinträchtigende und jugendgefährdende Elemente auf Social-Media-Diensten vorgehen könnte, weil diese Dienste als „jugendfrei“ gelten, wenn sie sich an die gesetzlichen Vorgaben eines Verbots halten. Ein Verbot könnte damit zu dem paradoxen Ergebnis führen, dass Minderjährige weiter mit Online-Risiken konfrontiert wären, das Vorgehen gegen solche Risiken aber erschwert wird.
Ein vergleichbares Problem besteht bereits jetzt in Bezug auf § 5 Jugendmedienschutz-Staatsvertrag (JMStV): So können beispielsweise auf YouTube oder Steam entwicklungsbeeinträchtigende Inhalte zugänglich gemacht werden, weil diese Dienste im Hintergrund mit der Alterskennzeichnung „ab 18 Jahren“ versehen sind. Minderjährige merken von dieser Alterskennzeichnung in der Regel zwar kaum etwas (YouTube gehört hier nach wie vor zu den wichtigsten Diensten[1]), weil auf ihren Geräten meist kein Jugendschutzprogramm installiert wurde, welches diese auslesen könnte.[2] Den Medienanstalten ist es aber trotzdem nicht mehr möglich, gegen entwicklungsbeeinträchtigende Inhalte vorzugehen, weil die Dienste mit dem Label die gesetzlichen Mindeststandards erfüllen und aus rechtlicher Sicht sichergestellt ist, dass Minderjährige entwicklungsbeeinträchtigende Inhalte „üblicherweise“ nicht mehr wahrnehmen können.
Wenn ein Gesetz vorsähe, dass keine Minderjährigen unter einer bestimmten Altersgrenze Zugang zu Social Media haben dürfen, könnte dies außerdem dazu führen, dass Plattformbetreibende nur noch die gesetzlichen Mindeststandards erfüllen und sonstige Investitionen in Schutzmaßnahmen zurückfahren oder auf neue Maßnahmen verzichten. Dies könnte auch zu Lasten von Erwachsenen gehen, die Schutzmaßnahmen wie Inhalte-Filter oder Zeitlimit-Erinnerungen, die bislang oft unter dem Label des Jugendmedienschutzes laufen, nicht missen möchten.
Daneben besteht das Risiko, dass von einem Verbot betroffene Kinder und Jugendliche auf Dienste ausweichen, die nicht von einem Verbot umfasst wären oder dieses ignorieren würden und noch weniger reguliert wären.[3]
Minderjährige könnten außerdem davor zurückschrecken, über negative Erfahrungen auf Social Media zu berichten, weil sie dort eigentlich nicht mehr aktiv sein dürften und Sanktionen befürchten. In der Folge könnten sie keine oder erst später Unterstützung erhalten. Überdies steht zu befürchten, dass sich ein Verbot insbesondere negativ auf diejenigen Minderjährige auswirkt, die vor Ort wenige Sozialkontakte haben oder Teil einer Minderheit sind und die durch ein Verbot online den Kontakt zu ihrem Netzwerk an Unterstützenden und Gleichgesinnten verlieren (vgl. Argument 7 und Argument 8).
Die genannten Probleme müssten bei einem Social-Media-Verbot berücksichtigt und gelöst werden, damit die Maßnahme nicht unbeabsichtigt zu einem niedrigeren Schutzniveau führt.
[2] Vgl. https://mpfs.de/app/uploads/2025/05/KIM-Studie-2024.pdf, S. 81-82.
Ein Verbot würde je nach Ausgestaltung für Minderjährige, die von der Entwicklung unterschiedlich weit sind, gleichermaßen gelten. Dass die Nutzungsrisiken für einige der betroffenen Kinder und Jugendliche höher wären als für andere und sich die Betroffenen mit Blick auf die jeweils vorhandene Medienkompetenz unterscheiden, bliebe so ggf. unberücksichtigt.
Aktuellere Debattenbeiträge versuchen dem Rechnung zu tragen, indem zwischen einem vollständigen Verbot für jüngere Minderjährige und einer altersangemessenen Plattformgestaltung für ältere Jugendliche differenziert wird. Obwohl solche Ansätze eher um eine altersgerechte Schutzlösung bemüht sind, bleiben jedoch auch hier viele grundsätzliche Probleme bestehen, die mit einem Verbot einhergehen (vgl. beispielsweise Argument 12 und Argument 15).
Alternativ wären altersgerechte Schutzlösungen (für alle Minderjährigen) denkbar. Die Webseite https://www.medien-kindersicher.de/startseite gibt einen Überblick über zahlreiche bestehende technische Schutzlösungen für Geräte, Dienste und Apps, die an das jeweilige Alter und die jeweilige Medienkompetenz des Kindes angepasst werden können. Damit solche ausdifferenzierten Schutzeinstellungen flächendeckend zum Einsatz kommen, müssten Plattformen jedoch zu einer verlässlichen Altersfeststellung und zur Anpassung des Schutzniveaus an das Alter des Kindes verpflichtet sowie diese Regelungen auch durchgesetzt werden.
In vielen Bundesländern sind bei Landtagswahlen und Kommunalwahlen bereits 16-Jährige wahlberechtigt.
Auch junge Wählerinnen und Wählern sollten sich dabei nicht erst kurz vor dem Wahltag, sondern möglichst früh mit politischen Themen und parteipolitischen Positionen auseinandersetzen können. Eine niedrigschwellige Auseinandersetzung mit diesen Themen ist zwar nicht nur auf Social-Media möglich. Zumindest bislang kommen junge Menschen aber insbesondere dort mit politischen Informationen in Kontakt.[1]
Ein Social-Media-Verbot könnte sich daher auch darauf auswirken, ob, wo und wie sich junge Wählerinnen und Wähler mit politischen Themen auseinandersetzen. Ob ein Verbot damit auch unbeabsichtigt zu weniger informierten oder entpolitisierten jungen Menschen beitragen würde, ist derzeit aber kaum abschätzbar.
Kinder und Jugendliche sind besonders anfällig für viele der Online-Risiken, die derzeit bestehen und daher auch besonders schutzbedürftig.
Gleichzeitig darf aber nicht aus dem Blick geraten, dass auch Erwachsene nicht immun gegenüber verstörenden Hinrichtungsinhalten, Cyberstalking, Hassrede, Desinformation & Co sind und dass auch innerhalb der Gruppe der Erwachsenen Nutzende ausgemacht werden können, die besonders vulnerabel sind: Etwa 80 Prozent der polizeilich registrierten Opfer von Cyberstalking waren 2019 beispielsweise zwischen 21 und 60 Jahre alt und weiblich.[1] Daneben sind Erwachsene ebenfalls mit Hass im Netz konfrontiert und ziehen sich deswegen aus dem Diskurs zurück, bekennen sich seltener zu ihrer Meinung oder beteiligen sich weniger an Diskussionen im Internet.[2] Verschwörungserzählungen und Falschmeldungen fallen ebenso nicht nur bei Minderjährigen auf fruchtbaren Boden.[3]
Politik und Gesellschaft müssen daher auch Lösungen dafür finden, wie Erwachsene besser vor Online-Risiken und illegalen Inhalten geschützt oder zu einer verantwortungsvolleren Nutzung von Social-Media befähigt werden können.
Was macht die LFK jetzt schon?
Die oben genannten Argumente und ihre Einordnung zeigen, dass der Schutz von Kindern und Jugendlichen vor Online-Risiken komplex ist und erhebliche Bedenken gegen vermeintlich einfache Lösungsvorschläge bestehen. Insbesondere Fragen bezüglich der Umsetzbarkeit und der Reichweite eines Verbots sowie unbeabsichtigte negative Folgen sind zu beachten. Eine undifferenzierte und pauschalisierende Verbotsdebatte sollte außerdem nicht davon ablenken, dass es für einen wirksamen Schutz von Minderjährigen verschiedener Maßnahmen bedarf.
Die LFK leistet in diesem Zusammenhang mit ihren vielfältigen Zugängen zum Thema Jugendmedienschutz bereits jetzt einen wichtigen Beitrag für ein sicheres Aufwachsen mit digitalen Medien.
Unsere Studien liefern wissenschaftliche Erkenntnisse zur Mediennutzung von Kindern und Jugendlichen, also dazu, warum und wie sie welche Social-Media-Plattformen nutzen und mit welchen Risiken sie dort konfrontiert sind.
Im Aufsichtsbereich werden Inhalte aus jugendmedienschutzrechtlicher Sicht betrachtet und es wird auf die Entfernung von rechtswidrigen Inhalten hingewirkt.
Daneben setzen wir uns im Bereich Medienkompetenz mit zahlreichen Projekten dafür ein, dass Kinder und Jugendliche auf den digitalen Alltag vorbereitet werden.
Zu nennen sind hier etwa:
als unabhängige Anlaufstelle für den digitalen Alltag von Jugendlichen – mit vielen Tipps, Informationen und auch kreativen Ideen rund um Smartphones, Tablets und Apps.
unser Serious Game, soll das Bewusstsein für Social-Media-Algorithmen und ihre gesellschaftlichen Konsequenzen fördern. Das Spiel eignet sich auch für den Einsatz im Schulunterricht in Fächern wie Ethik, Religion, Deutsch oder Gemeinschaftskunde.
in dessen Rahmen Schülerinnen und Schüler Erklärvideos (Tutorials) zu selbstgewählten Themen produzieren und so Einblicke in die hinter YouTube stehenden Mechanismen und Geschäftspraktiken bekommen. Sie lernen, die geschlechtsspezifischen Selbstinszenierungen der eigenen YouTube-Stars zu hinterfragen und auf kommerzielle Einflussnahme zu achten. Thematisiert werden ebenfalls Datenschutz, Persönlichkeits- und Urheberrechte.
bietet einen Überblick über zahlreiche bestehende technische Schutzlösungen für Geräte, Dienste und Apps, die an das jeweilige Alter und die jeweilige Medienkompetenz des Kindes angepasst werden können.
Debattenbeitrag zum Download (PDF)
Benjamin Thull
Landesanstalt für Kommunikation
Leitung Team Jugendschutz und Forschung; Projekte handysektor.de und medien-kindersicher.de
Tel.: 0711 66991-53
E-Mail: b.thull@lfk.de