Die Landesanstalt für Kommunikation (LFK) setzt sich als Medienanstalt für Baden-Württemberg für einen zeitgemäßen Jugendschutz ein. Als Aufsichtsbehörde geht sie unter anderem gegen Jugendschutzverstöße auf Social-Media-Plattformen vor, sie betreibt aber auch Forschung zur Mediennutzung von Kindern und Jugendlichen und fördert die Medienkompetenz.
Social-Media-Verbot: Die wichtigsten Argumente im Check
Auf dieser Seite geben wir einen Überblick über die wichtigsten Argumente in der aktuellen Debatte um ein Social-Media-Verbot, ordnen diese ein und verweisen auf nützliche Angebote zur Medienkompetenzförderung sowie zum Jugendmedienschutz.
Im politischen Austausch wird unter dem Schlagwort „Social-Media-Verbot“ derzeit intensiv über ein generelles Mindestalter für die Nutzung von Social Media diskutiert. Die vorgeschlagenen Altersgrenzen variieren, die einen halten beispielsweise 13 Jahre für angemessen, andere präferieren 16 oder gar 18 Jahre als Mindestalter für die Nutzung von Social-Media. Mit einem Verbot verbinden nicht wenige die Erwartungshaltung, die negativen Folgen, die die Nutzung von Social Media verursachen kann, zu bewältigen.
Legitime Argumente werden in der Debatte jedoch immer wieder mit undifferenzierten, irreführenden oder sogar falschen Aussagen vermischt. Zudem wird nicht immer zwischen der Frage eines generellen Social-Media-Verbots und dem Verbot von Handys an Schulen differenziert.
Über die LFK
Im Folgenden werden häufig genannte Argumente zu einem Social-Media-Verbot aufgegriffen und eingeordnet. Dadurch will die LFK aus Jugendschutzsicht zu einer konstruktiveren und sachlicheren Debatte über ein Social-Media-Verbot für Kinder und Jugendliche beitragen. Ziel der Übersicht ist es dabei nicht, die Frage eines Social-Media-Verbots endgültig, eindeutig und umfassend zu beantworten.
Stattdessen soll an die Thematik herangeführt und dafür sensibilisiert werden, dass die Beantwortung der Frage, wie Minderjährige wirksam vor Online-Risiken geschützt werden können, komplexer ist, als es in der öffentlichen Debatte um ein Verbot teilweise dargestellt wird.
Die folgende Übersicht ist nicht abschließend und wird kontinuierlich aktualisiert.
Argumente für ein Verbot
Aktuell werden Minderjährige auf Social Media Angeboten mit unterschiedlichsten Risiken konfrontiert, die nicht altersgerecht sind. Gleichzeitig reichen die bestehenden Maßnahmen zu ihrem Schutz nicht aus. Die Frage, wie Kinder und Jugendliche effektiver vor Online-Risiken geschützt werden könnten, kann jedoch unterschiedlich beantwortet werden. Social-Media-Plattformen für Minderjährige zu verbieten, ist ein Lösungsvorschlag, der umstritten ist. Alternativ oder ergänzend werden beispielsweise eine altersgerechte Gestaltung von Social Media, mehr Medienkompetenz, eine Stärkung der Aufsichtsbehörden oder Public-Health-Aufklärungskampagnen gefordert.[1]
Ob Kinder und Jugendliche durch ein Social-Media-Verbot effektiver geschützt werden würden, ist umstritten. Teilweise wird auch befürchtet, dass das Schutzniveau durch ein Verbot sinken könnte, da sich die Social-Media-Plattformen dann weniger um das Thema Jugendschutz kümmern könnten (vgl. Argument 13).
Damit Verbote wirksam werden, müssen sie außerdem allgemein konsequent durchgesetzt werden können. Hier gibt es im Falle eines Social-Media-Verbotes spezifische und insbesondere juristische Bedenken, aber auch praktische Umsetzungsprobleme (vgl. insb. Argumente 8 und 9).
Insbesondere müsste ein Verbot so ausgestaltet sein, dass es nicht leicht umgangen werden kann. Gleichzeitig wären auch diejenigen Minderjährigen, die sich trotz Verbot weiterhin mit schädlichen Online-Einflüssen konfrontiert sehen, effektiv zu schützen (vgl. Argument 11).
Daneben müssten Kinder und Jugendliche auch bei einem Verbot dazu befähigt werden, verantwortungsvoll mit Social Media umzugehen, da sie die definierte Altersgrenze irgendwann überschreiten (vgl. Argument 9).
Damit sich Minderjährige zu eigenverantwortlichen und gemeinschaftsfähigen Individuen entwickeln können, bedarf es Regeln, die nicht zuletzt Erziehungsberechtigte, Institutionen wie Schule oder auch der Staat festlegen. Aus medienpädagogischer Sicht sollten restriktive Eingriffe aber begründet, dialogisch vermittelt und altersgerecht gestaltet sein. Ansonsten steigt das Risiko dafür, dass Kinder und Jugendliche die Vorgaben ablehnen, ein Misstrauen gegenüber handelnden Erwachsenen entwickeln oder kreative Wege finden, um ein Verbot zu umgehen. Außerdem steigt dann das Risiko dafür, dass das Verbotene erst recht als attraktiv wahrgenommen wird.[1]
Dies gilt ausdrücklich auch für ein Social-Media-Verbot, welches nicht nur den Zugang zu einzelnen Inhalten oder Inhaltekategorien untersagt, sondern für viele Minderjährige einen sehr weitreichender Eingriff in den Lebensalltag bedeuten würde. Damit könnte auch die Motivation, das Verbot zu umgehen, für viele Minderjährige höher sein, als wenn beispielsweise nur der Zugang zu konkreten risikobehafteten Elementen eingeschränkt werden würde. Mit einem Social-Media-Verbot Anreize dafür zu schaffen, dass Eltern medienbezogene Gespräche nicht führen müssen, wäre vor diesem Hintergrund womöglich kontraproduktiv und zu kurz gedacht.
Zugleich ist es allerdings nicht von der Hand zu weisen, dass viele Erziehungsberechtigte mit dem Thema Medienerziehung überfordert sind. Sie müssten daher in jedem Fall stärker durch niedrigschwellige Medienkompetenz- und Informationsangebote unterstützt und dazu befähigt werden, mit ihren Kindern reflektiert und kompetent über medienbezogene Themen sprechen zu können. Parallel dazu müssen Bildungseinrichtungen ebenso in die Lage versetzt werden, Minderjährige auf die Nutzung von Social Media und die digitale Lebensrealität allgemein vorzubereiten. Unterstützung dabei, gemeinsam mit Kindern eine verantwortungsvolle Mediennutzung zu entwickeln, findet sich u. a. unter https://www.mediennutzungsvertrag.de/ und https://www.klicksafe.de/. Einen Überblick über technische Schutzlösungen für Geräte, Dienste und Apps gibt die Webseite https://www.medien-kindersicher.de/startseite.
[1] Siehe hierzu etwa Von Gross, Friederike; Tappe, Eik-Henning & Weßel, André (2025). Altersgrenzen für Social Media? Die Perspektive der Medienpädagogik. BzKJAKTUELL, 2, S. 12.
Dieser Vergleich ist problematisch: Substanzen wie Nikotin oder Alkohol können nicht altersgerecht für Minderjährige gestaltet werden, Social-Media-Plattformen hingegen schon. Drogenvergleiche erzeugen daher den irreführen Eindruck, es gäbe keine Alternative zu einem Social-Media-Verbot.
Ob ein pauschales Verbot für Minderjährige oder bereits die Debatte darüber Plattformbetreibende dazu bewegen, ihre Dienste für einige oder alle Nutzenden sicherer zu gestalten, ist fraglich. Ein Verbot könnte im Gegenteil sogar dazu führen, dass Plattformbetreibende ihre Schutzmaßnahmen reduzieren und nur noch gesetzlich definierte Minimalstandards erfüllen. Warum sollten Plattformbetreibende bei einem Verbot schließlich noch weiter in Jugendschutzmaßnahmen investieren, wenn ihre Dienste ohnehin als „jugendfrei" gelten und sie trotz dieser Investitionen noch immer genauso von einem Verbot betroffen wären, wie Dienste, die diese Investitionen nicht tätigen? (vgl. Argument 13).
Ein Einlenken der Plattformbetreibenden wäre schon eher denkbar, wenn ein Verbot nur für jene Plattformen gelten würde, die keine verlässlicher Altersfeststellung und keine standardmäßig voreingestellte altersgerechte Gestaltung vorweisen können. So hätten Betreiber einen Anreiz, kontinuierlich an einer jugendschutzkonformen Gestaltung ihrer Social-Media-Plattformen zu arbeiten und sich für das Thema Jugendschutz einzusetzen.
In Australien trat Ende 2024 ein Gesetz in Kraft, das Social-Media-Plattformen verpflichtet, angemessene Maßnahmen zu ergreifen, damit Australierinnen und Australier unter 16 Jahren kein Konto erstellen oder weiter nutzen können. Noch ist es aber zu früh, um beurteilen zu können, ob das Gesetz Minderjährige effektiv vor schädlichen Online-Einflüssen schützen kann.
Zum einen wurde den Plattformen eine einjährige Übergangsfrist eingeräumt, um die Maßnahmen umzusetzen. Erst danach drohen Strafen in Millionenhöhe, wenn keine effektiven Zugangsbeschränkungen vorhanden sind.[1]
Zum anderen sind erste belastbare Erkenntnisse dazu, ob das Social-Media-Verbot in Australien die gewünschte Wirkung hat, frühestens zu erwarten, wenn das Verbot mehrere Monate vollumgänglich gilt. Davon abgesehen wären insbesondere bei einem national geltenden Social Media Verbot in Deutschland rechtliche Hürden zu beachten, die es im Fall von Australien nicht gibt (vgl. Argument 8).
Es ist nicht auszuschließen, dass die Social-Media-Nutzung bei einem Verbot teilweise oder ganz durch andere bildschirmbasierte Tätigkeiten wie Gaming oder Fernsehen ersetzt werden würde.[1]
Am Umfang der Bildschirmzeit kann außerdem nicht unmittelbar die tatsächliche Gefährdung für Kinder und Jugendliche abgelesen werden. Minderjährige können auch bei einer vergleichsweisen geringen Mediennutzungszeit auf Diensten, die nicht von einem Social-Media-Verbot umfasst wären, mit belastenden Inhalten, Cybermobbing, Cybergrooming, Kostenfallen usw. konfrontiert werden.
Argumente gegen ein Verbot
Anwendungsvorrang von EU-Gesetzgebung
Mit dem Digital Services Act (DSA) liegt eine unmittelbar geltende Europäische Verordnung vor, die nationale Vorschriften im Anwendungsbereich überlagert. Eine nationale Altersgrenze für die Nutzung von Social Media könnte daher aus Sicht vieler Rechtswissenschaftlerinnen und Rechtswissenschaftler am Anwendungsvorrangs des DSA scheitern.[1]
Mit Sicherheit lässt sich dies aber erst bewerten, wenn es entsprechende Rechtsprechung oder Auslegungsleitlinien der EU-Kommission gibt.[2]
Ausnahmen durch die AVMD-Richtlinie
Video-Sharing-Plattformen könnten aufgrund der Audiovisuellen Mediendienste-Richtlinie (AVMD-RL) vom Anwendungsvorrang des DSA ausgenommen sein. Auch die AVMD-RL dürfte jedoch kein vollständiges Zugangsverbot zu Social Media für Nutzende rechtfertigen, die eine bestimmte Altersgrenze unterschreiten.[3]
Abgesehen davon wären hiervon einige Social-Media-Plattformen nicht umfasst, weil auf ihnen statt nutzergenerierten Sendungen und Videos beispielsweise eher Fotos oder Textbeiträge zur Verfügung gestellt werden.[4]
Dadurch wäre ein Verbot leicht zu umgehen.
Herkunftslandprinzip
Bei einem Verbot wäre außerdem das sogenannte Herkunftslandprinzip zu beachten. Dieses besagt, dass für eine Social-Media-Plattform, die sich in einem EU-Mitgliedstaat niedergelassen hat, nur die jeweils nationalen Rechtsvorgaben dieses Mitgliedstaats gelten. Ausnahmen sind nur für behördliche Einzelmaßnahmen möglich, d.h. beispielsweise, wenn die LFK als Medienanstalt gegen konkrete Inhalte auf einer konkreten Plattform vorgeht.
Ein allgemeines Verbot wäre als deutsche Vorschrift daher voraussichtlich nur für Anbieter aus Deutschland oder dem außereuropäischen Ausland bindend, nicht aber für die meisten Social-Media-Plattformen, die ihren EU-Hauptsitz in Irland oder einem anderen EU-Mitgliedstaat haben. Bei Plattformbetreibenden aus dem außereuropäischen Ausland wäre die Rechtsdurchsetzung wiederum erschwert, weil Maßnahmen deutscher Behörden nicht ohne weiteres im Ausland vollstreckt werden können.[5]
[1] Siehe hierzu etwa https://leibniz-hbi.de/die-huerden-eines-social-media-verbots-in-deutschland/ oder Stelle zur Durchsetzung von Kinderrechten in digitalen Diensten (2025). Altersgrenzen für Social Media? Perspektive der Medienregulierung Die KidD im Einsatz für sichere und altersgerechte Online-Angebote, 2, S. 20.
Egal ob nationales oder EU-weites Social-Media-Verbot, in beiden Fällen wäre außerdem das Prinzip der Verhältnismäßigkeit zu beachten. Dabei gilt, dass ein Verbot die Grundrechte der Plattformbetreibenden und insbesondere die der betroffenen Kinder und Jugendlichen erheblich beschneiden würde. Grundrechtseinschränkungen sind jedoch nur dann möglich, wenn die geplanten Maßnahmen einen legitimen Zweck verfolgen, geeignet, erforderlich und angemessen sind.
Dass ein Verbot geeignet ist, um schädliche Online-Einflüsse zu verhindern, kann beispielsweise in Frage gestellt werden, weil es kaum Belege für die positiven Effekte von Social-Media-Verboten gibt und ein Verbot leicht umgehbar sein könnte (vgl. Argument 11).[1]
Gegen die Erforderlichkeit würde sprechen, dass es mildere Mittel gäbe, mit denen das gleiche Ergebnis erzielt werden könnte. So wäre beispielsweise alternativ die Forderung nach einer altersangemessenen Gestaltung von Plattformen möglich, wodurch Minderjährige weniger in ihrer digitalen Teilhabe eigeschränkt werden würden.[2]
Gegen die Zumutbarkeit eines Verbots könnte wiederum sprechen, dass ein Social-Media-Verbot einen erheblichen Grundrechtseingriff für die betroffenen Plattformbetreibenden und Minderjährigen bedeuten würde.[3]
Neben den verfassungsrechtlich verbürgten Rechten und Freiheiten wie der Informationsfreiheit und Meinungsfreiheit wären dabei auch die Kinderrechte auf Befähigung und Teilhabe betroffen.[4]
So könnte ein Verbot etwa verhindern, dass Kinder und Jugendliche auf den betroffenen Plattformen auf relevante Informationen und Unterhaltungsangebote zugreifen und mit Freunden und Gleichaltrigen interagieren können, obwohl viele Inhalte auf Social-Media-Plattformen harmlos oder sogar vorteilhaft sind.[5]
Fraglich wäre auch, wann und wie Minderjährige bei einem Verbot zu einer verantwortungsvollen Social-Media-Nutzung befähigt werden sollen. Einerseits könnten sich Eltern, wie auch Bildungseinrichtungen auf das Verbot zurückziehen. Andererseits ist das altersgerechte, schrittweise Erlernen des Umgangs mit Social Media im Falle eines Verbotes ja auch in einem pädagogischen Kontext nur noch schwer vorstellbar. Eine Befähigung von Minderjährigen wäre zugleich insbesondere dann nicht gegeben, wenn Minderjährigen zunächst gar kein Zugriff auf Social Media erlaubt wäre und sie dann mit Überschreiten einer Altersgrenze unvorbereitet mit allen schädlichen Elementen konfrontiert wären.
Abgesehen davon würden auch viele der folgenden Bedenken bei einem EU-weiten Verbot bestehen bleiben.
Die Frage, welche Dienste von einem Verbot erfasst sein sollen, ist nicht zu unterschätzen: Wären nur wenige große Social-Media-Plattformen von einem Verbot erfasst, so blieben die Risiken auf den anderen Diensten bestehen. Zudem wäre das Verbot dann schnell umgehbar, indem einfach auf einen weiterhin frei zugänglichen Dienst ausgewichen wird.
Grundsätzlich ist davon auszugehen, dass Risiken für Kinder und Jugendliche überall dort bestehen, wo Kommunikation und Interaktion zwischen Menschen möglich ist. Deshalb würde es auch zu kurz greifen, nur die „klassichen“ Social-Media-Plattformen in den Blick zu nehmen.
Sollte das Verbot jedoch umfassender ausgestaltet sein und auch Diskussions- und Selbsthilfeforen, Gaming-Plattformen, Instant Messenger wie WhatsApp oder generell Dienste mit einer Chatfunktion umfassen, so wären die Grundrechteinschränkungen für die Betroffenen noch größer. Minderjährigen würde digitale Teilhabe und niedrigschwellige Kommunikation dann nahezu komplett verwehrt.
Wie leicht es Minderjährigen gemacht würde, ein Social-Media-Verbot zu umgehen, hinge zwar von der konkreten Ausgestaltung und Durchsetzung des Gesetzes ab. Dass zumindest ein Teil der Minderjährigen mittels VPN, durch ältere Geschwister, Accounts von Eltern usw. trotz Verbot weiter auf Social-Media zugreifen würde, ist aber wahrscheinlich. Hinzu kommt, dass Minderjährige auf andere Dienste ausweichen könnten, die nicht von dem Verbot umfasst wären oder dieses ignorieren würden und noch weniger moderiert wären.
Bei einem Social-Media-Verbot müsste daher auch eine Antwort auf die Frage gefunden werden, wie jene Minderjährige besser geschützt werden können, die weiterhin auf Social-Media oder andere, nicht weniger problematische Dienste zugreifen.
Damit ein Verbot effektiv wäre, braucht es verlässliche Methoden der (KI-basierten) Altersschätzung oder Altersverifikation bzw. Altersfeststellung. Die Kommission für Jugendmedienschutz (KJM) hat hier in den letzten Jahren bereits zahlreiche unterschiedliche Konzepte aus Jugendschutzsicht geprüft und positiv bewertet (https://www.kjm-online.de/themen/technischer-jugendmedienschutz/unzulaessige-inhalte/).
Gemäß KJM erfolgt dann eine verlässliche Altersverifikation, wenn zwei Punkte gegeben sind: eine zumindest einmalige persönliche Identifizierung (Altersüberprüfung) und eine Authentifizierung beim einzelnen Nutzungsvorgang, damit sichergestellt wird, dass nur die altersgeprüfte Person Zugang hat. Angebote zur Altersfeststellung sind beim Online-Banking oder in anderen Bereichen, in denen sensible Daten anfallen, längst Alltag.
Es ist davon auszugehen, dass einige Minderjährige mittels VPN, durch ältere Geschwister, die Geräte und Accounts ihrer Eltern usw. weiter mit Social-Media konfrontiert wären, selbst wenn Plattformbetreiber die gesetzliche Mindeststandards eines Verbots erfüllen. In diesem Zusammenhang steht zu befürchten, dass die LFK als Medienanstalt nicht mehr gegen entwicklungsbeeinträchtigende und jugendgefährdende Elemente auf Social-Media-Diensten vorgehen könnte, weil diese Dienste als „jugendfrei“ gelten, obwohl Jugendliche nach wie vor darauf zugreifen.
Ein vergleichbares Problem besteht bereits jetzt in Bezug auf § 5 Jugendmedienschutz-Staatsvertrag (JMStV): So können beispielsweise auf YouTube oder Steam entwicklungsbeeinträchtigende Inhalte frei zugänglich gemacht werden, weil diese Dienste im Hintergrund mit der Alterskennzeichnung „ab 18 Jahren“ versehen sind. Minderjährige merken davon in der Regel zwar kaum etwas (81 Prozent der Jugendlichen nutzen beispielsweise weiter regelmäßig YouTube[1]), weil auf ihren Geräten meist kein Jugendschutzprogramm installiert wurde, welches diese Alterskennzeichnung auslesen könnte.[2]
Den Medienanstalten ist es aber trotzdem nicht mehr möglich, gegen entwicklungsbeeinträchtigende Inhalte vorzugehen, weil die Dienste mit dem Label die gesetzlichen Mindeststandards erfüllen.
Wenn ein Gesetz vorsähe, dass keine Minderjährigen unter einer bestimmten Altersgrenze Zugang zu Social Media haben dürfen, könnte dies außerdem dazu führen, dass Plattformbetreibende nur noch die gesetzlichen Mindeststandards erfüllen und ansonsten Investitionen in Schutzmaßnahmen zurückfahren oder auf neue Maßnahmen verzichten. Dies könnte auch zu Lasten von Erwachsenen gehen, die Schutzmaßnahmen wie Inhalte-Filter oder Zeitlimit-Erinnerungen, die bislang oft unter dem Label des Jugendmedienschutzes laufen, nicht missen möchten.
Daneben besteht das Risiko, dass von einem Verbot betroffene Kinder und Jugendliche auf Dienste ausweichen würden, die nicht von einem Verbot umfasst wären oder dieses ignorieren würden und noch weniger moderiert wären.[3]
Minderjährige könnten außerdem davor zurückschrecken, über negative Erfahrungen auf Social Media zu berichten, weil sie dort eigentlich nicht mehr aktiv sein dürften und Sanktionen befürchten. In der Folge könnten sie keine oder erst später Unterstützung erhalten.
Die genannten Probleme müssten bei einem Social-Media-Verbot berücksichtigt und gelöst werden, damit ein Verbot nicht unbeabsichtigt zu einem niedrigeren Schutzniveau führt.
Ein Verbot der Nutzung von Social Media würde für Minderjährige, die von der Entwicklung unterschiedlich weit sind, gleichermaßen gelten. Dass die Nutzungsrisiken für einige der betroffenen Kinder und Jugendliche höher wären als für andere und sich die Betroffenen mit Blick auf die jeweils vorhandene Medienkompetenz unterscheiden, bliebe unberücksichtigt.
Alternativ wären ausdifferenziertere und altersgerechtere Schutzlösungen denkbar. Die Webseite https://www.medien-kindersicher.de/startseite gibt einen Überblick über zahlreiche bestehende technische Schutzlösungen für Geräte, Dienste und Apps, die an das jeweilige Alter und die jeweilige Medienkompetenz des Kindes angepasst werden können. Damit solche ausdifferenzierten Schutzeinstellungen flächendeckend zum Einsatz kommen, könnten Plattformen zu einer verlässlichen Altersfeststellung und zur Anpassung des Schutzniveaus an das Alter des Kindes verpflichtet werden.
Was macht die LFK jetzt schon?
Die oben genannten Argumente und ihre Einordnung zeigen, dass der Schutz von Kindern und Jugendlichen vor Online-Risiken komplex ist und erhebliche Bedenken gegen vermeintlich einfache Lösungsvorschläge bestehen. Insbesondere Fragen bezüglich der Umsetzbarkeit und der Reichweite eines Verbots sowie unbeabsichtigte negative Folgen sind zu beachten. Eine undifferenzierte und pauschalisierende Verbotsdebatte sollte außerdem nicht davon ablenken, dass es für einen wirksamen Schutz von Minderjährigen verschiedener Maßnahmen bedarf.
Die LFK leistet in diesem Zusammenhang mit ihren vielfältigen Zugängen zum Thema Jugendmedienschutz bereits jetzt einen wichtigen Beitrag für ein sicheres Aufwachsen mit digitalen Medien.
Unsere Studien liefern wissenschaftliche Erkenntnisse zur Mediennutzung von Kindern und Jugendlichen, also dazu, warum und wie sie welche Social-Media-Plattformen nutzen und mit welchen Risiken sie dort konfrontiert sind.
Im Aufsichtsbereich werden Inhalte aus jugendmedienschutzrechtlicher Sicht betrachtet und es wird auf die Entfernung von rechtswidrigen Inhalten hingewirkt.
Daneben setzen wir uns im Bereich Medienkompetenz mit zahlreichen Projekten dafür ein, dass Kinder und Jugendliche auf den digitalen Alltag vorbereitet werden. Zu nennen sind hier etwa:
unsere unabhängige Anlaufstelle für den digitalen Alltag von Jugendlichen – mit vielen Tipps, Informationen und auch kreativen Ideen rund um Smartphones, Tablets und Apps.
fördert das Bewusstsein für Social-Media-Algorithmen und ihre gesellschaftlichen Konsequenzen. Das Spiel eignet sich auch für den Einsatz im Schulunterricht in Fächern wie Ethik, Religion, Deutsch oder Gemeinschaftskunde.
hier produzieren Schülerinnen und Schüler Erklärvideos (Tutorials) zu selbstgewählten Themen und bekommen so Einblicke in die hinter YouTube stehenden Mechanismen und Geschäftspraktiken. Sie lernen, die geschlechtsspezifischen Selbstinszenierungen der eigenen YouTube-Stars zu hinterfragen und auf kommerzielle Einflussnahme zu achten. Thematisiert werden ebenfalls Datenschutz, Persönlichkeits- und Urheberrechte.
bietet einen Überblick über zahlreiche bestehende technische Schutzlösungen für Geräte, Dienste und Apps, die an das jeweilige Alter und die jeweilige Medienkompetenz des Kindes angepasst werden können.
Benjamin Thull
Landesanstalt für Kommunikation
Leitung Team Jugendschutz und Forschung; Projekte handysektor.de und medien-kindersicher.de
Tel.: 0711 66991-53
E-Mail: b.thull@lfk.de