
Social Media verbieten?
Ist ein Social Media-Verbot für alle unter 16 Jahren sinnvoll, um Kinder und Jugendliche vor den Risiken zu schützen? Die Idee klingt einfach, doch der Kinderschutzbund hält ein pauschales Verbot für den falschen Weg. Neben dem Schutz der jungen Menschen müssen auch ihre Rechte gewahrt bleiben.
Studien zeigen: Mediensucht, Konzentrationsprobleme, geringes Selbstwertgefühl und ein verzerrtes Körperbild hängen oft mit der Nutzung sozialer Medien zusammen. Doch kann man diese Probleme mit der Einführung eines Social Media-Verbots für unter 16-Jährige lösen?
Altersgrenzen für die Nutzung sozialer Medien werfen viele Fragen auf. Die Idee, Kinder und Jugendliche unter 16 Jahren von Online-Plattformen auszuschließen, klingt einfach, ist aber schwer umsetzbar und nicht zielführend. Schon jetzt gilt auf den meisten Plattformen ein Mindestalter von 13 Jahren – doch wird dieses kaum kontrolliert. Ein wirksames Mindestalter erfordert flächendeckende Altersfeststellung – auch für Erwachsene. Doch welches Verfahren eignet sich? Wer legt es fest, wer kontrolliert es? Und ist es verhältnismäßig, jungen Menschen pauschal den Zugang zu digitalen Räumen zu verwehren, die für Bildung, Teilhabe und Selbstbestimmung immer wichtiger werden?
Ein pauschales Verbot greift zu kurz
Die zentrale Frage lautet: Was soll ein Verbot bewirken? Soll es die Nutzungszeit verkürzen, Entwicklungsrisiken mindern, Suchtgefahr verringern? Soll es sexualisierte Gewalt, Identitätsdiebstahl oder Hatespeech verhindern? Diese Ziele sind berechtigt. Doch viele Risiken treten auch in anderen Online-Bereichen wie Messenger-Gruppen, Games oder Foren auf, die ein Verbot nicht erfasst. Zudem haben soziale Medien auch positive Seiten: Junge Menschen pflegen darüber soziale Beziehungen, finden Communities, informieren sich online oder organisieren sich politisch. Nicht alle Kinder können auf die Unterstützung ihrer Eltern zählen, etwa bei schulischen Themen. Ein Erklärvideo auf YouTube oder ein Instagram-Reel ist mit nur wenigen Klicks geschaut.
Auch die Plattformen unterscheiden sich: Welche sollen gesperrt werden? Wer entscheidet das, und nach welchen Kriterien? Warum stehen TikTok, Snapchat oder Instagram im Fokus, während Messenger-Dienste wie WhatsApp, die ebenfalls Risiken wie Cybergrooming, Erpressung, Hatespeech und Mobbing bergen, oft unerwähnt bleiben?
Und auch rechtlich stößt ein nationales Verbot an Grenzen, da in der EU der Digital Services Act gilt, der nationale Regelungen hinsichtlich Anbieterregulierung überschreibt.
Selbst wenn ein Verbot käme, bleibt die Wirksamkeit fraglich. Kinder und Jugendliche fänden Wege, es zu umgehen – mit technischen Tricks oder Hilfe von älteren Personen. Viele nutzen die Plattformen ohnehin schon – und zwar vor Erreichen des Mindestalters. Ein Verbot könnte sie in unregulierte digitale Räume treiben. Das wäre noch riskanter als die Nutzung der großen, zumindest teilweise moderierten Plattformen.
Mehr Medienkompetenz notwendig
Ein weiterer Aspekt wird oft übersehen: Wie sollen Kinder und Jugendliche den Umgang mit sozialen Medien lernen, wenn sie bis 16 keinen Zugang haben? Wer übernimmt diese Aufgabe – Schulen? Eltern? Wären nicht kontrollierte Einstiegsmodelle mit Begleitung durch Fachkräfte oder die Plattformen selbst sinnvoll? Fest steht: Schon heute ist Medienkompetenzförderung die Ausnahme, nicht die Regel. Ein Verbot könnte den Jugendmedienschutz weiter schwächen. Mit 16 Jahren würden Jugendliche in eine digitale Welt entlassen, die ihre Schutzbedarfe ignoriert hat.
Die Debatte um pauschale Verbote blendet zudem Grundrechtsfragen aus. Kinder haben laut UN-Kinderrechtskonvention ein Recht auf Zugang zu Medien, freie Meinungsäußerung und Information. Diese Rechte pauschal einzuschränken, erfordert eine sorgfältige Abwägung und klare Begründung. Rechtfertigen die Schutzrechte diese fundamentalen Teilhaberechte für alle unter 16 auszusetzen?
Der Kinderschutzbund erkennt die Risiken sozialer Medien an. Pauschale Verbote lehnt er jedoch ab. Stattdessen sollten Anbieter in die Pflicht genommen werden: Sie sind verpflichtet, für den Schutz Minderjähriger auf ihren Plattformen zu sorgen. So müssen sie technische Schutzmaßnahmen, funktionierende Moderation und Beschwerdeverfahren, sichere Voreinstellungen und ein Verbot von trackingbasierter Werbung umsetzen. Das fordern bestehende Gesetze wie der Digital Services Act (DSA) und die Datenschutzgrundverordnung (DSGVO).
Gute Altersfeststellungsverfahren fehlen
Bei aller Diskussion rund um das Social Media-Verbot bleibt die Altersfeststellung der Knackpunkt: Ohne funktionierende Systeme bleibt ein Mindestalter wirkungslos. Solche Systeme müssten für alle Nutzenden – auch für Erwachsene – verbindlich sein. Doch welches Verfahren ist sicher, datenschutzkonform und diskriminierungsfrei? Wer legt die Standards fest, wer kontrolliert die Anbieter, wer sanktioniert Verstöße? Und wie haften Eltern, wenn ihre Kinder das Verbot umgehen – etwa mit einem VPN-Client oder Ausweisdaten einer anderen Person?
Der elektronische Personalausweis (eID), der ab Ende 2026 in der EU verpflichtend wird, könnte ein guter Ansatz sein – vorausgesetzt, er ist sicher, datenschutzkonform und leicht nutzbar. Doch in Deutschland gilt die Ausweispflicht erst ab 16 Jahren, und nur wenige Kinder haben einen Reisepass. Menschen ohne gültige Ausweispapiere wie Geflüchtete oder Staatenlose würden ausgeschlossen. Auch Australien, oft als Vorbild genannt, hat noch keine praktikable Lösung für die Altersfeststellung gefunden.
Teilhabe durch Social Media
Kinder und Jugendliche brauchen Schutz, aber auch Teilhabe. Sie brauchen Räume, in denen sie sich ausprobieren, austauschen und lernen können. Social Media kann ein solcher Ort sein. Für marginalisierte Gruppen wie queere und trans* Jugendliche, Menschen mit Rassismus-Erfahrung oder Jugendliche in patriarchalen Strukturen sind diese Plattformen oft die einzige Möglichkeit, Gleichgesinnte zu finden und Unterstützung zu erfahren.
Die Probleme sozialer Medien lösen wir nicht mit einer Altersgrenze. Wir brauchen Schutzstrategien, die jungen Menschen zutrauen, kompetente Nutzer*innen digitaler Räume zu werden. Dazu gehören kritische Medienbildung, Aufklärung und Mitbestimmung. Gleichzeitig müssen Anbieter den Jugendschutz auf ihren Plattformen effektiv umzusetzen. Solange grundlegende Fragen zur Altersfeststellung, Kontrolle und Alternativen unbeantwortet bleiben, sind pauschale Verbote der falsche Weg. Social Media muss kindgerecht werden – nicht kinderfrei.
Elena Frense, Fachreferentin für Medien und Digitales,
Kinderschutzbund Bundesverband

