Social-Media-Verbot: Die wichtigsten Argumente im Check

Auf dieser Seite geben wir einen Überblick über die wichtigsten Argumente in der aktuellen Debatte um ein Social-Media-Verbot, ordnen diese ein und verweisen auf nützliche Angebote zur Medienkompetenzförderung sowie zum Jugendmedienschutz.

Im politischen Austausch wird unter dem Schlagwort „Social-Media-Verbot“ derzeit intensiv über ein generelles Mindestalter für die Nutzung von Social Media diskutiert. Die vorgeschlagenen Altersgrenzen variieren, die einen halten beispielsweise 13 Jahre für angemessen, andere präferieren 14, 15, 16 oder gar 18 Jahre als Mindestalter für die Nutzung von Social-Media. Mit einem Verbot verbinden dabei nicht wenige die Erwartungshaltung, die negativen Folgen, die die Nutzung von Social Media verursachen kann, zu bewältigen.

Legitime Argumente werden in der Debatte jedoch immer wieder mit undifferenzierten, irreführenden oder sogar falschen Aussagen vermischt. Zudem wird nicht immer zwischen der Frage eines generellen Social-Media-Verbots und dem Verbot von Handys an Schulen differenziert.

 

Über die LFK

Die Landesanstalt für Kommunikation (LFK) setzt sich als Medienanstalt für Baden-Württemberg für einen zeitgemäßen Jugendschutz ein. Als Aufsichtsbehörde geht sie unter anderem gegen Jugendschutzverstöße auf Social-Media-Plattformen vor, sie betreibt aber auch Forschung zur Mediennutzung von Kindern und Jugendlichen und fördert die Medienkompetenz.

Im Folgenden werden häufig genannte Argumente zu einem Social-Media-Verbot aufgegriffen und eingeordnet. Dadurch will die LFK aus Jugendschutzsicht zu einer konstruktiveren und sachlicheren Debatte über ein Social-Media-Verbot für Kinder und Jugendliche beitragen. Ziel der Übersicht ist es dabei nicht, die Frage eines Social-Media-Verbots endgültig, eindeutig und umfassend zu beantworten.

Stattdessen soll an die Thematik herangeführt und dafür sensibilisiert werden, dass die Beantwortung der Frage, wie Minderjährige wirksam vor Online-Risiken geschützt werden können, komplexer ist, als es in der öffentlichen Debatte um ein Verbot teilweise dargestellt wird. 

Die folgende Übersicht ist nicht abschließend und wird kontinuierlich aktualisiert.

Argumente für ein Verbot

Aktuell werden Minderjährige auf Social Media Angeboten mit unterschiedlichsten Risiken konfrontiert, die nicht altersgerecht sind. Dazu zählen Cybergrooming, Cybermobbing, gefährliche Online-Challenges, Kostenfallen, Hassrede, Inhalte, die Essstörungen verherrlichen, aber auch plattformspezifische Gestaltungselemente wie Autoplay, Endlos-Scrollen und Belohnungssysteme, die eine exzessive Nutzung fördern können.[1] Die bestehenden Maßnahmen zum Schutz von Minderjährigen reichen gleichzeitig nicht aus. 

Die daran anknüpfende Frage, wie Kinder und Jugendliche effektiver vor Online-Risiken geschützt werden, wird jedoch unterschiedlich beantwortet. Social-Media-Plattformen für Minderjährige zu verbieten, ist ein Lösungsvorschlag, der umstritten ist. Alternativ oder ergänzend werden beispielsweise eine altersgerechte Gestaltung von Social Media, mehr Medienkompetenz, eine Stärkung der Aufsichtsbehörden oder Public-Health-Aufklärungskampagnen gefordert.[2]

Ob und unter welchen Voraussetzungen Kinder und Jugendliche durch ein Social-Media-Verbot effektiv vor Online-Risiken geschützt werden würden, ist umstritten. Bislang gibt es zu dieser Frage kaum empirische Evidenz und es fehlt an Erkenntnissen dazu, wie sich erste Verbote in anderen Ländern mittel bis langfristig auswirken. Ebenso unklar ist, welche unbeabsichtigten Folgeeffekte ggf. eintreten oder inwieweit sich Erfahrungen aus anderen Ländern überhaupt übertragen lassen (vgl. Argument 7). Angesichts der vielfältigen Online-Risiken – die Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) identifiziert in ihrem Gefährdungsatlas immerhin über 40 Medienphänomene, die einer unbeschwerten Teilhabe von Kindern und Jugendlichen im Wege stehen können[1] – ist außerdem denkbar, dass nicht alle Risiken gleichermaßen reduziert werden könnten. Den Erfolg eines Verbots zu messen ist vor diesem Hintergrund komplexer als es auf den ersten Blick scheint. So könnte ein Verbot beispielsweise dazu führen, dass Minderjährige weniger mit bestimmten Gestaltungselementen konfrontiert sind, die eine exzessive Nutzung fördern. Gleichzeitig könnten sie aber auf Kommunikationsräume ausweichen, in denen sie stärker als zuvor von Cybergrooming oder Mobbing betroffen sind.

Damit Kinder und Jugendliche effektiv vor Online-Risiken geschützt werden können, bräuchte es deshalb Schutzkonzepte auch für diejenigen Minderjährigen, die Wege finden, das Verbot zu umgehen oder auf andere Dienste ausweichen (vgl. Argument 12 und Argument 13). 

Dies gilt umso mehr, da Jugendliche aufgrund des Verbots auch gerade auf weniger regulierte Dienste ausweichen könnten und Social-Media-Betreiber Schutzmaßnahmen, die über das Verbot hinaus gehen, reduzieren könnten (vgl. hierzu auch Argument 6). Im Sinne eines effektiven Jugendmedienschutzes sollten außerdem auch die Arbeit von Aufsichtsbehörden oder die Vermittlung von Medienkompetenz nicht unbeabsichtigt bei einem Verbot unterminiert werden (vgl. Argument 15).

Auch im Falle eines Verbots müssten Minderjährige außerdem stärker als bisher auf den digitalen Alltag vorbereitet werden, da die im Rahmen eines Verbots definierte Altersgrenze irgendwann überschritten wird. 

Vor diesem Hintergrund wird deutlich: Ein Verbot führt keineswegs automatisch zu mehr Schutz für Kinder und Jugendliche, auch wenn in der Debatte bisweilen dieser Eindruck erweckt wird.

Neben einem Verbot kommen auch mildere Alternativen wie eine altersangemessene Gestaltung von Social Media, Medienkompetenzprojekte, oder Public-Health-Aufklärungskampagnen in Betracht, um Minderjährige vor Online-Risiken zu schützen.

Diese Ansätze wurden bislang nicht ausgeschöpft. Beispielsweise können Nutzenden mittlerweile zwar bei vielen Social-Media-Angebote technische Schutzlösungen wie Inhalte-Filter und Kontakt- oder Nutzungszeitbeschränkungen aktivieren, um so eine möglichst altersangemessene Nutzung sicherzustellen. Solche Maßnahmen sind aber in der Regel nicht standardmäßig für minderjährige Nutzende aktiviert, weil es an einer verlässlichen Altersfeststellung fehlt. Dies hat zur Folge, dass sie häufig ungenutzt bleiben.

Gleichzeitig verpflichtet der seit dem 17. Februar 2024 vollumfänglich geltende Digital Services Act (DSA) Anbieter von Online-Plattformen, ihre Dienste altersangemessen für Minderjährige zu gestalten. Bei Verstößen drohen Bußgelder bis zu sechs Prozent des weltweiten Jahresumsatzes. 

Mindestens genauso wichtig wie die Verabschiedung eines Gesetzes ist jedoch dessen schnelle und konsequente Durchsetzung. In diesem Fall hat die hier zuständige EU-Kommission mittlerweile erste Verfahren eingeleitet.[1] Das bedeutet: Der Ansatz einer altersangemessenen Gestaltung kann erst dann als gescheitert gelten, wenn entsprechende Regelungen auch konsequent durch die verantwortlichen Stellen angewandt wurden und sich als nicht effektiv oder nicht durchsetzbar erwiesen haben.

Damit sich Minderjährige zu eigenverantwortlichen und gemeinschaftsfähigen Individuen entwickeln können, bedarf es Regeln, die Erziehungsberechtigte, Institutionen wie Schule oder auch der Staat festlegen. Aus medienpädagogischer Sicht sollten restriktive Eingriffe jedoch begründet, dialogisch vermittelt und altersgerecht gestaltet sein. Ansonsten steigt das Risiko dafür, dass Kinder und Jugendliche die Vorgaben ablehnen, ein Misstrauen gegenüber handelnden Erwachsenen entwickeln oder kreative Wege finden, um ein Verbot zu umgehen. Außerdem steigt dann das Risiko dafür, dass das Verbotene erst recht als attraktiv wahrgenommen wird [1].

Dies gilt ausdrücklich auch für ein Social-Media-Verbot, welches nicht nur den Zugang zu einzelnen Inhalten oder Inhaltekategorien untersagt, sondern für viele Minderjährige einen sehr weitreichenden Eingriff in den Lebensalltag bedeuten würde. Damit könnte auch die Motivation, das Verbot zu umgehen, für viele Minderjährige höher sein, als wenn beispielsweise nur der Zugang zu konkreten risikobehafteten Elementen eingeschränkt werden würde. Mit einem Social-Media-Verbot Anreize dafür zu schaffen, dass Eltern medienbezogene Gespräche nicht führen müssen, wäre vor diesem Hintergrund womöglich kontraproduktiv und zu kurz gedacht.

Zugleich ist nicht von der Hand zu weisen, dass viele Erziehungsberechtigte mit dem Thema Medienerziehung überfordert sind.  Sie müssten daher in jedem Fall stärker durch niedrigschwellige Medienkompetenz- und Informationsangebote unterstützt und dazu befähigt werden, mit ihren Kindern reflektiert und kompetent über medienbezogene Themen sprechen zu können. Parallel dazu müssen Bildungseinrichtungen ebenso in die Lage versetzt werden, Minderjährige auf die Nutzung von Social Media und die digitale Lebensrealität allgemein vorzubereiten. Unterstützung dabei, gemeinsam mit Kindern eine verantwortungsvolle Mediennutzung zu entwickeln, findet sich u. a. unter https://www.mediennutzungsvertrag.de/ und https://www.klicksafe.de/. Einen Überblick über technische Schutzlösungen für Geräte, Dienste und Apps gibt die Webseite https://www.medien-kindersicher.de/startseite.
 


[1] Siehe hierzu etwa Von Gross, Friederike; Tappe, Eik-Henning & Weßel, André (2025). Altersgrenzen für Social Media? Die Perspektive der Medienpädagogik. BzKJAKTUELL, 2, S. 12.

Dieser Vergleich ist problematisch: Substanzen wie Nikotin oder Alkohol können nicht altersgerecht für Minderjährige gestaltet werden, Social-Media-Plattformen hingegen schon. Drogenvergleiche erzeugen daher den irreführen Eindruck, es gäbe keine Alternative zu einem Social-Media-Verbot.

Ob ein pauschales Verbot für Minderjährige oder bereits die Debatte darüber Plattformbetreibende dazu bewegen, ihre Dienste für einige oder alle Nutzenden sicherer zu gestalten, ist fraglich. Ein Verbot könnte im Gegenteil sogar dazu führen, dass Plattformbetreibende ihre Schutzmaßnahmen reduzieren und nur noch gesetzlich definierte Minimalstandards erfüllen.[1] Warum sollten Plattformbetreibende bei einem Verbot schließlich noch weiter in Jugendschutzmaßnahmen investieren, wenn ihre Dienste ohnehin als „jugendfrei" gelten und sie trotz dieser Investitionen noch immer genauso von einem Verbot betroffen wären, wie Dienste, die diese Investitionen nicht tätigen? (vgl. hierzu auch Argument 15).

Ein Einlenken der Plattformbetreibenden wäre schon eher denkbar, wenn ein Verbot nur für jene Plattformen gelten würde, die keine verlässlicher Altersfeststellung und keine standardmäßig voreingestellte altersgerechte Gestaltung vorweisen können. So hätten Betreiber einen Anreiz, kontinuierlich an einer jugendschutzkonformen Gestaltung ihrer Social-Media-Plattformen zu arbeiten und sich für das Thema Jugendschutz einzusetzen.
 

In Australien trat Ende 2025 ein Gesetz in Kraft, das Social-Media-Plattformen verpflichtet, angemessene Maßnahmen zu ergreifen, damit Australierinnen und Australier unter 16 Jahren kein Konto erstellen oder weiter nutzen können. Noch ist es aber zu früh, um vollumfänglich beurteilen zu können, ob das Gesetz Minderjährige effektiv vor schädlichen Online-Einflüssen schützen kann.

Zum einen ist unklar, ob das Verbot in seiner derzeitigen Form überhaupt bestehen bleibt, da bereits Klage dagegen eingereicht wurde. Zum anderen legen erste Medienberichte nahe, dass zumindest bislang viele Minderjährige das Verbot leicht umgehen können und weiter auf Social Media aktiv sind.[1] Daneben finden sich Medienberichte, laut denen australische Minderjährige aufgrund des Verbots Kontakt zu Hilfsorganisationen aufsuchten, weil sie von ihrem Netzwerk an Unterstützerinnen und Unterstützern abgeschnitten worden seien.[2]

Kursierende Zahlen zu den nach dem Verbot deaktivierten Accounts, die Minderjährigen gehört haben sollen, sind wiederum wenig aussagekräftig, wenn ebenjene Minderjährige im Anschluss beispielsweise problemlos einen neuen Account erstellen oder auf einen anderen – möglicherweise nicht weniger problematischen – Dienst ausweichen können.

Davon abgesehen wären bei Social Media Verbot in Deutschland rechtliche Hürden und Besonderheiten zu beachten, die es im Fall von Australien so nicht gibt (vgl. Argument 10 und Argument 11).

Es ist nicht auszuschließen, dass die Social-Media-Nutzung bei einem Verbot teilweise oder ganz durch andere bildschirmbasierte Tätigkeiten wie Gaming oder Fernsehen ersetzt werden würde.[1]

Am Umfang der Bildschirmzeit kann außerdem nicht unmittelbar die tatsächliche Gefährdung für Kinder und Jugendliche abgelesen werden. Minderjährige können auch bei einer geringeren Mediennutzungszeit oder bei einer Nutzung von Diensten, die nicht von einem Social-Media-Verbot umfasst wären, mit belastenden Inhalten, Cybermobbing, Cybergrooming, Kostenfallen usw. konfrontiert werden. 

Teilweise hat sich bei Befragungen eine relative Mehrheit der befragten Jugendlichen für ein Social-Media-Verbot ausgesprochen.[1] Diese Ergebnisse sollten erst genommen werden, da sie den Betroffenen eine Stimme geben und die Interessen von Jugendlichen bei Regulierungsentscheidungen berücksichtigt werden sollten. Entsprechende Umfrageergebnisse sollten aber trotzdem aus mehreren Gründen nicht unhinterfragt zur Legitimierung weitreichender Grundrechtseinschränkungen herangezogen werden.

Zum einen könnte bei Umfragen der Aspekt der sozialen Erwünschtheit eine Rolle spielen, das heißt, Jugendliche könnten sich verstärkt für ein Verbot aussprechen, weil sie glauben, dass diese Antwort von ihnen erwartet oder positiver wahrgenommen wird. Zum anderen deuten bestehende Umfragen darauf hin, dass die Zustimmung zu einem Verbot bei älteren Jugendlichen höher ist, also bei Befragten, die möglicherweise selbst nicht von einem Verbot betroffen wären oder dies zumindest glauben. Daneben wird teilweise nur relativ einseitig abgefragt, ob die Befragten für oder gegen ein Verbot wären. Ob die Befragten beispielsweise weniger grundrechtseinschränkende Schutzmaßnahmen gegenüber einem Verbot präferieren würden, bleibt so unklar. Hinzu kommt, dass die möglichen Hürden und zu befürchtenden negativen Folgen eines Verbots nicht allen bekannt, die konkrete Ausgestaltung derzeit kaum absehbar und noch viele Fragen ungeklärt sind. Die Befürwortung oder Ablehnung eines Social-Media-Verbots durch Erwachsenen und Jugendliche ist auch vor dem Hintergrund dieses Informationsdefizits zu betrachten.

Gleichzeitig äußern sich Jugendliche in Untersuchungen auch kritisch gegenüber einem Social-Media-Verbot. So befürchten sie etwa, soziale Kontakte zu verlieren oder Informationen zu verpassen.[2]

Zusammengefasst können bestehende Untersuchungen durchaus Ausdruck eines Bedürfnisses vieler Jugendlicher nach besserem Schutz vor Online-Risiken sein. Sie sollten aber nicht als Beleg dafür herhalten, dass ein Verbot dieses Bedürfnis auch am besten erfüllen und mit anderen Bedürfnissen wie Befähigung und Teilhabe optimal austarieren würde.

Argumente gegen ein Verbot

In Bezug auf ein nationales Social-Media-Verbot sind mehrere rechtliche Hürden zu beachten:

Anwendungsvorrang von EU-Gesetzgebung

Mit dem Digital Services Act (DSA) liegt eine unmittelbar geltende Europäische Verordnung vor, die nationale Vorschriften im Anwendungsbereich überlagert. Eine nationale Altersgrenze für die Nutzung von Social Media könnte daher aus Sicht vieler Rechtswissenschaftlerinnen und Rechtswissenschaftler am Anwendungsvorrangs des DSA scheitern.[1]

Mit Sicherheit lässt sich dies aber erst bewerten, wenn es entsprechende Rechtsprechung oder Auslegungsleitlinien der EU-Kommission gibt.[2]

 

Ausnahmen durch die AVMD-Richtlinie

Video-Sharing-Plattformen könnten aufgrund der Audiovisuellen Mediendienste-Richtlinie (AVMD-RL) vom Anwendungsvorrang des DSA ausgenommen sein. Auch die AVMD-RL dürfte jedoch kein vollständiges Zugangsverbot zu Social Media für Nutzende rechtfertigen, die eine bestimmte Altersgrenze unterschreiten.[3]

Abgesehen davon wären hiervon einige Social-Media-Plattformen nicht umfasst, weil auf ihnen statt nutzergenerierten Sendungen und Videos beispielsweise eher Fotos oder Textbeiträge zur Verfügung gestellt werden.[4]

Dadurch wäre ein Verbot leicht zu umgehen.

 

Herkunftslandprinzip

Bei einem Verbot wäre außerdem das sogenannte Herkunftslandprinzip zu beachten. Dieses besagt, dass für eine Social-Media-Plattform, die sich in einem EU-Mitgliedstaat niedergelassen hat, nur die jeweils nationalen Rechtsvorgaben dieses Mitgliedstaats gelten. Ausnahmen sind nur für behördliche Einzelmaßnahmen möglich, d.h. beispielsweise, wenn die LFK als Medienanstalt gegen konkrete Inhalte auf einer konkreten Plattform vorgeht.

Ein allgemeines Verbot wäre als deutsche Vorschrift daher voraussichtlich nur für Anbieter aus Deutschland oder dem außereuropäischen Ausland bindend, nicht aber für die meisten Social-Media-Plattformen, die ihren EU-Hauptsitz in Irland oder einem anderen EU-Mitgliedstaat haben. Bei Plattformbetreibenden aus dem außereuropäischen Ausland wäre die Rechtsdurchsetzung wiederum erschwert, weil Maßnahmen deutscher Behörden nicht ohne weiteres im Ausland zu vollstrecken.[5]
 


[1] Siehe hierzu etwa https://leibniz-hbi.de/die-huerden-eines-social-media-verbots-in-deutschland/ oder Stelle zur Durchsetzung von Kinderrechten in digitalen Diensten (2025). Altersgrenzen für Social Media?  Perspektive der Medienregulierung Die KidD im Einsatz für sichere und altersgerechte Online-Angebote, 2, S. 20.

Egal ob nationales oder EU-weites Social-Media-Verbot, in beiden Fällen wäre außerdem das Prinzip der Verhältnismäßigkeit zu beachten. Dabei gilt, dass ein Verbot die Grundrechte der Plattformbetreibenden und insbesondere die der betroffenen Kinder und Jugendlichen erheblich beschneiden würde. Grundrechtseinschränkungen sind jedoch nur dann möglich, wenn die geplanten Maßnahmen einen legitimen Zweck verfolgen, geeignet, erforderlich und angemessen sind.

Dass ein Verbot geeignet ist, um schädliche Online-Einflüsse zu verhindern, kann beispielsweise in Frage gestellt werden, weil es kaum empirische Belege für die positiven Effekte von Social-Media-Verboten gibt und ein Verbot leicht umgehbar sein könnte.[1]

Gegen die Erforderlichkeit würde sprechen, dass es mildere Mittel gäbe, mit denen das gleiche Ergebnis erzielt werden könnte. So wäre beispielsweise alternativ eine altersangemessene Gestaltung von Plattformen möglich, wodurch Minderjährige weniger in ihrer digitalen Teilhabe eingeschränkt werden würden.[2]

Gegen die Zumutbarkeit eines Verbots könnte wiederum sprechen, dass ein Social-Media-Verbot einen erheblichen Grundrechtseingriff für die betroffenen Plattformbetreibenden und Minderjährigen bedeuten würde.[3] Neben den verfassungsrechtlich verbürgten Rechten und Freiheiten wie der Informationsfreiheit und Meinungsfreiheit wären dabei auch die Kinderrechte auf Befähigung und Teilhabe betroffen.[4]

So könnte ein Verbot etwa verhindern, dass Kinder und Jugendliche auf den betroffenen Plattformen auf relevante Informationen und Unterhaltungsangebote zugreifen und mit Freunden und Gleichaltrigen interagieren können, obwohl viele Inhalte auf Social-Media-Plattformen harmlos oder sogar vorteilhaft für sie sind.[5] Bei einem Verbot von Social Media für Minderjährigen ist mit Blick auf den Aspekt der Teilhabe außerdem zu bedenken, dass in vielen Bundesländern bei Landtagswahlen und Kommunalwahlen bereits 16-Jährige wählen dürfen (vgl. Argument 17).

Fraglich wäre auch, wann und wie Minderjährige bei einem Verbot zu einer verantwortungsvollen Social-Media-Nutzung befähigt werden sollen. Einerseits könnten sich Eltern, wie auch Bildungseinrichtungen auf das Verbot zurückziehen. Andererseits ist das altersgerechte, schrittweise Erlernen des Umgangs mit Social Media im Falle eines Verbotes ja auch in einem pädagogischen Kontext nur noch schwer vorstellbar. Eine Befähigung von Minderjährigen wäre zugleich insbesondere dann nicht gegeben, wenn Minderjährigen zunächst gar kein Zugriff auf Social Media erlaubt wäre und sie dann mit Überschreiten einer Altersgrenze unvorbereitet mit allen schädlichen Elementen konfrontiert wären.

Abgesehen davon würden auch viele weitere Problematiken und Bedenken bei einem EU-weiten Verbot bestehen bleiben (vgl. beispielsweise Argument 12 und Argument 15).

Die Frage, welche Dienste von einem Verbot erfasst sein sollen, ist nicht zu unterschätzen: Wären nur wenige große Social-Media-Plattformen von einem Verbot erfasst, blieben die Risiken auf anderen Diensten bestehen. Zudem wäre das Verbot dann schnell umgehbar, indem einfach auf weiterhin frei zugängliche Dienste ausgewichen wird. 

Gleichzeitig ist davon auszugehen, dass Risiken für Kinder und Jugendliche überall dort bestehen, wo Kommunikation und Interaktion möglich ist. Algorithmische Empfehlungssysteme oder Elemente wie Autoplay und Endlos-Scrollen sind zwar nicht überall im Netz gleichermaßen präsent. Mit extremistischen Inhalten können Minderjährige aber beispielsweise auch in beliebten Online-Games oder auf weitverbreiteten Gaming (nahen-) Plattformen konfrontiert werden [1]. Cybergrooming oder Cybermobbing sind ebenfalls keine Social-Media-spezifischen Phänomene. Entsprechende Erfahrungen machen Minderjährige auch auf Messenger-Diensten wie WhatsApp oder in Online-Games [2].

Wären von einem Verbot deshalb auch diese digitalen Räume oder generell Dienste mit Chat und Kontaktfunktion umfasst, so wären die Grundrechteeinschränkungen für die Betroffenen allerdings enorm. Minderjährigen würde digitale Teilhabe und niedrigschwellige Kommunikation dann nahezu komplett verwehrt. 

Die „Lösung“ des Verbots birgt in diesem Zusammenhang das Risiko, dass es nach und nach auf weitere Angebote ausgeweitet wird, weil diese ebenfalls von Minderjährigen genutzt werden und als riskant gelten.[3]

Es würde somit zu kurz greifen, bei der Frage des Jugendschutzes ausschließlich die „klassischen“ Social-Media-Plattformen in den Blick zu nehmen und hier isoliert auf Verbote zu setzen. Entsprechende Ansätze stoßen spätestens mit Blick auf die Vielfalt der Angebotslandschaft und die Mediennutzungsgewohnheiten von Minderjährigen an ihre Grenzen. Ein effektiver Jugendschutz setzt voraus, dass digitale Räume in ihrer Vielfalt Berücksichtigung finden und Schutzstrategien breit gedacht miteinander kombiniert werden.

Wie leicht es Minderjährigen gemacht würde, ein Social-Media-Verbot zu umgehen, hinge zwar von der konkreten Ausgestaltung und Durchsetzung des Gesetzes ab. Dass zumindest ein Teil der Minderjährigen mittels VPN, durch ältere Geschwister, Accounts von Eltern usw. trotz Verbot weiter auf Social-Media zugreifen würde, ist aber wahrscheinlich (vgl. hierzu auch Argument 7 bzw. das Beispiel Australien). Hinzu kommt, dass Minderjährige auf andere Dienste ausweichen könnten, welche nicht von dem Verbot umfasst wären oder dieses ignorieren und ggf. noch weniger moderiert wären. 

Bei einem Social-Media-Verbot müsste daher auch eine Antwort auf die Frage gefunden werden, wie jene Minderjährige besser geschützt werden können, die weiterhin auf Social-Media oder andere, nicht weniger problematische Dienste zugreifen. 

Damit ein Verbot effektiv wäre, braucht es verlässliche Methoden der (KI-basierten) Altersschätzung oder Altersverifikation bzw. Altersfeststellung. Die Kommission für Jugendmedienschutz (KJM) hat hier in den letzten Jahren bereits zahlreiche unterschiedliche Konzepte aus Jugendschutzsicht geprüft und positiv bewertet (https://www.kjm-online.de/themen/technischer-jugendmedienschutz/unzulaessige-inhalte/).

Gemäß KJM erfolgt dann eine verlässliche Altersverifikation, wenn zwei Punkte gegeben sind: eine zumindest einmalige persönliche Identifizierung (Altersüberprüfung) und eine Authentifizierung beim einzelnen Nutzungsvorgang, damit sichergestellt wird, dass nur die altersgeprüfte Person Zugang hat. Angebote zur Altersfeststellung sind beim Online-Banking oder in anderen Bereichen, in denen sensible Daten anfallen, längst Alltag.

Es ist davon auszugehen, dass einige Minderjährige mittels VPN, durch ältere Geschwister, Freundinnen und Freude oder die Geräte und Accounts ihrer Eltern weiter mit Social-Media konfrontiert wären, selbst wenn Plattformbetreiber die gesetzlichen Mindeststandards eines Verbots erfüllen. Gleichzeitig steht aber zu befürchten, dass die LFK als Medienanstalt nicht mehr gegen entwicklungsbeeinträchtigende und jugendgefährdende Elemente auf Social-Media-Diensten vorgehen könnte, weil diese Dienste als „jugendfrei“ gelten, wenn sie sich an die gesetzlichen Vorgaben eines Verbots halten. Ein Verbot könnte damit zu dem paradoxen Ergebnis führen, dass Minderjährige weiter mit Online-Risiken konfrontiert wären, das Vorgehen gegen solche Risiken aber erschwert wird.

Ein vergleichbares Problem besteht bereits jetzt in Bezug auf § 5 Jugendmedienschutz-Staatsvertrag (JMStV): So können beispielsweise auf YouTube oder Steam entwicklungsbeeinträchtigende Inhalte frei zugänglich gemacht werden, weil diese Dienste im Hintergrund mit der Alterskennzeichnung „ab 18 Jahren“ versehen sind. Minderjährige merken davon in der Regel zwar kaum etwas (YouTube gehört hier nach wie vor zu den wichtigsten Diensten[1]), weil auf ihren Geräten meist kein Jugendschutzprogramm installiert wurde, welches diese Alterskennzeichnung auslesen könnte.[2] Den Medienanstalten ist es aber trotzdem nicht mehr möglich, gegen entwicklungsbeeinträchtigende Inhalte vorzugehen, weil die Dienste mit dem Label die gesetzlichen Mindeststandards erfüllen.

Wenn ein Gesetz vorsähe, dass keine Minderjährigen unter einer bestimmten Altersgrenze Zugang zu Social Media haben dürfen, könnte dies außerdem dazu führen, dass Plattformbetreibende nur noch die gesetzlichen Mindeststandards erfüllen und sonstige Investitionen in Schutzmaßnahmen zurückfahren oder auf neue Maßnahmen verzichten. Dies könnte auch zu Lasten von Erwachsenen gehen, die Schutzmaßnahmen wie Inhalte-Filter oder Zeitlimit-Erinnerungen, die bislang oft unter dem Label des Jugendmedienschutzes laufen, nicht missen möchten. 

Daneben besteht das Risiko, dass von einem Verbot betroffene Kinder und Jugendliche auf Dienste ausweichen, die nicht von einem Verbot umfasst wären oder dieses ignorieren würden und noch weniger moderiert wären.[3]

Minderjährige könnten außerdem davor zurückschrecken, über negative Erfahrungen auf Social Media zu berichten, weil sie dort eigentlich nicht mehr aktiv sein dürften und Sanktionen befürchten. In der Folge könnten sie keine oder erst später Unterstützung erhalten. Überdies steht zu befürchten, dass sich ein Verbot insbesondere negativ auf diejenigen Minderjährige auswirkt, die vor Ort wenige Sozialkontakte haben oder Teil einer Minderheit sind und die durch ein Verbot online den Kontakt zu ihrem Netzwerk an Unterstützenden und Gleichgesinnten verlieren (vgl. Argument 7).

Die genannten Probleme müssten bei einem Social-Media-Verbot berücksichtigt und gelöst werden, damit die Maßnahme nicht unbeabsichtigt zu einem niedrigeren Schutzniveau führt.

Ein Verbot würde je nach Ausgestaltung für Minderjährige, die von der Entwicklung unterschiedlich weit sind, gleichermaßen gelten. Dass die Nutzungsrisiken für einige der betroffenen Kinder und Jugendliche höher wären als für andere und sich die Betroffenen mit Blick auf die jeweils vorhandene Medienkompetenz unterscheiden, bliebe so unberücksichtigt. 

Alternativ wären ausdifferenziertere und altersgerechtere Schutzlösungen denkbar. Die Webseite https://www.medien-kindersicher.de/startseite gibt einen Überblick über zahlreiche bestehende technische Schutzlösungen für Geräte, Dienste und Apps, die an das jeweilige Alter und die jeweilige Medienkompetenz des Kindes angepasst werden können. Damit solche ausdifferenzierten Schutzeinstellungen flächendeckend zum Einsatz kommen, müssten Plattformen zu einer verlässlichen Altersfeststellung und zur Anpassung des Schutzniveaus an das Alter des Kindes verpflichtet und diese Regelungen durchgesetzt werden.

In vielen Bundesländern sind bei Landtagswahlen und Kommunalwahlen bereits 16-Jährige wahlberechtigt. Auch junge Wählerinnen und Wählern sollten sich dabei nicht erst kurz vor dem Wahltag, sondern möglichst früh mit politischen Themen und parteipolitischen Positionen auseinandersetzen können. Eine niedrigschwellige Auseinandersetzung mit diesen Themen ist zwar nicht nur auf Social-Media möglich. Zumindest bislang kommen junge Menschen aber insbesondere dort mit politischen Informationen in Kontakt.[1] Ein Social-Media-Verbot könnte sich daher auch darauf auswirken, ob, wo und wie sich junge Wählerinnen und Wähler mit politischen Themen auseinandersetzen. Ob ein Verbot damit auch unbeabsichtigt zu weniger informierten oder entpolitisierten jungen Menschen beitragen würde, ist derzeit aber kaum abschätzbar.

Was macht die LFK jetzt schon?

Die oben genannten Argumente und ihre Einordnung zeigen, dass der Schutz von Kindern und Jugendlichen vor Online-Risiken komplex ist und erhebliche Bedenken gegen vermeintlich einfache Lösungsvorschläge bestehen. Insbesondere Fragen bezüglich der Umsetzbarkeit und der Reichweite eines Verbots sowie unbeabsichtigte negative Folgen sind zu beachten. Eine undifferenzierte und pauschalisierende Verbotsdebatte sollte außerdem nicht davon ablenken, dass es für einen wirksamen Schutz von Minderjährigen verschiedener Maßnahmen bedarf.

Die LFK leistet in diesem Zusammenhang mit ihren vielfältigen Zugängen zum Thema Jugendmedienschutz bereits jetzt einen wichtigen Beitrag für ein sicheres Aufwachsen mit digitalen Medien.

Unsere Studien liefern wissenschaftliche Erkenntnisse zur Mediennutzung von Kindern und Jugendlichen, also dazu, warum und wie sie welche Social-Media-Plattformen nutzen und mit welchen Risiken sie dort konfrontiert sind. 

Im Aufsichtsbereich werden Inhalte aus jugendmedienschutzrechtlicher Sicht betrachtet und es wird auf die Entfernung von rechtswidrigen Inhalten hingewirkt

Daneben setzen wir uns im Bereich Medienkompetenz mit zahlreichen Projekten dafür ein, dass Kinder und Jugendliche auf den digitalen Alltag vorbereitet werden.

Zu nennen sind hier etwa: 

als unabhängige Anlaufstelle für den digitalen Alltag von Jugendlichen – mit vielen Tipps, Informationen und auch kreativen Ideen rund um Smartphones, Tablets und Apps. 

Mehr Informationen

unser Serious Game, soll das Bewusstsein für Social-Media-Algorithmen und ihre gesellschaftlichen Konsequenzen fördern. Das Spiel eignet sich auch für den Einsatz im Schulunterricht in Fächern wie Ethik, Religion, Deutsch oder Gemeinschaftskunde.

Mehr Informationen

in dessen Rahmen Schülerinnen und Schüler Erklärvideos (Tutorials) zu selbstgewählten Themen produzieren und so Einblicke in die hinter YouTube stehenden Mechanismen und Geschäftspraktiken bekommen. Sie lernen, die geschlechtsspezifischen Selbstinszenierungen der eigenen YouTube-Stars zu hinterfragen und auf kommerzielle Einflussnahme zu achten. Thematisiert werden ebenfalls Datenschutz, Persönlichkeits- und Urheberrechte.

Mehr Informationen

bietet einen Überblick über zahlreiche bestehende technische Schutzlösungen für Geräte, Dienste und Apps, die an das jeweilige Alter und die jeweilige Medienkompetenz des Kindes angepasst werden können.

Mehr Informationen

Kontakt

Benjamin Thull
Landesanstalt für Kommunikation
Leitung Team Jugendschutz und Forschung; Projekte handysektor.de und medien-kindersicher.de
Tel.: 0711 66991-53
E-Mail: b.thull@lfk.de