Tag & Nacht


Seit dem 10. Dezember 2025 gilt in Australien ein landesweites Verbot sozialer Netzwerke für Kinder und Jugendliche unter 16 Jahren. Die neue Gesetzgebung, eine der strengsten weltweit, zwingt globale Tech-Konzerne wie Meta, TikTok und YouTube, Minderjährigen den Zugang zu ihren Plattformen zu verwehren. Nur einen Monat später zeigt sich: Die Maßnahme hat massive Auswirkungen – fast fünf Millionen Nutzerkonten wurden bereits blockiert oder gelöscht.

Ein solcher Eingriff in die digitale Autonomie Jugendlicher ist international umstritten. Doch die australische Regierung betont die Schutzfunktion des Gesetzes und verweist auf die Verantwortung der Plattformbetreiber. Die Maßnahme wirft zugleich grundsätzliche Fragen auf: Wo liegen die Grenzen staatlicher Regulierung? Wie lässt sich Altersverifikation technisch und ethisch korrekt umsetzen? Und steht Australien womöglich am Beginn eines globalen Trends?


Ein Gesetz mit Signalwirkung

Die australische Gesetzesinitiative wurde unter dem Eindruck wachsender öffentlicher Besorgnis über die Auswirkungen sozialer Medien auf die psychische Gesundheit von Jugendlichen verabschiedet. Studien aus verschiedenen OECD-Ländern hatten in den vergangenen Jahren wiederholt auf steigende Depressionsraten, Schlafstörungen und Cybermobbing unter Jugendlichen hingewiesen – oft im Zusammenhang mit exzessiver Social-Media-Nutzung. Besonders Plattformen wie Instagram und TikTok stehen im Verdacht, jugendliche Nutzer durch algorithmische Inhalte in Abhängigkeitsverhältnisse zu bringen.

Die australische Regierung reagierte mit einem klaren Schritt: Seit dem 10. Dezember 2025 müssen Tech-Unternehmen nachweisen, dass keine Nutzer unter 16 Jahren Zugang zu ihren Plattformen haben. Bei Verstößen drohen Bußgelder von bis zu 49,5 Millionen australischen Dollar – umgerechnet rund 28,5 Millionen Euro.



Laut Angaben der eSafety Commissioner, der australischen Online-Sicherheitsbehörde, wurden in den ersten fünf Wochen seit Inkrafttreten der Regelung insgesamt 4,7 Millionen Nutzerkonten gelöscht oder gesperrt. „Es ist klar, dass die regulatorischen Empfehlungen und unser fortlaufender Dialog mit den Plattformen bereits signifikante Resultate zeigen“, erklärte die zuständige Kommissarin Julie Inman Grant.


Meta, TikTok und Co. unter Zugzwang

Insbesondere der Meta-Konzern (Facebook, Instagram, Threads) hat bereits erste Zahlen veröffentlicht. In der Woche nach dem Inkrafttreten der Regelung habe man allein auf Instagram 331.000 Accounts gelöscht, auf Facebook 173.000 und auf Threads 40.000. Auch TikTok und YouTube sind zur Umsetzung der Vorschriften verpflichtet, wenngleich detaillierte Zahlen bislang fehlen.

Meta fordert darüber hinaus eine Mitverantwortung der App-Stores – etwa von Apple und Google. Diese sollten verpflichtet werden, Altersnachweise bereits beim Herunterladen einer App zu prüfen und eine elterliche Genehmigung einzuholen. Der Konzern verweist auf technische und rechtliche Schwierigkeiten bei der eigenständigen Altersverifikation und plädiert für eine übergreifende Branchenlösung.


Altersverifikation als technologische und ethische Herausforderung

Die Altersüberprüfung im digitalen Raum gilt als notorisch schwierig. Herkömmliche Methoden wie das Ankreuzen eines Geburtsdatums sind leicht zu umgehen. Selbst fortgeschrittene Verfahren, etwa auf Basis von Ausweisdokumenten oder biometrischer Daten, stoßen auf Bedenken – nicht nur hinsichtlich des Datenschutzes, sondern auch im Hinblick auf soziale Gerechtigkeit.

„Die präzise Altersverifikation braucht Zeit“, betont die eSafety-Kommissarin, fordert aber zugleich weitere Anstrengungen seitens der Plattformen. Es sei auch die Verantwortung der Tech-Industrie, Umgehungsstrategien – etwa über VPN-Dienste oder falsche Altersangaben – aktiv zu unterbinden.

Ein zentrales Problem bleibt dabei ungelöst: Wie lässt sich der Schutz von Kindern mit dem Recht auf digitale Teilhabe und informationelle Selbstbestimmung in Einklang bringen? Kritiker warnen vor einem Dammbruch, bei dem Staaten zunehmend restriktive Eingriffe in den digitalen Alltag junger Menschen vornehmen könnten – teils mit autoritären Nebenwirkungen.


Internationale Debatte über digitale Schutzräume

Australien ist mit diesem Gesetz kein Einzelfall, aber ein Vorreiter. In den Vereinigten Staaten etwa existieren auf Ebene einzelner Bundesstaaten ähnliche Initiativen. So haben Arkansas und Utah bereits Gesetze verabschiedet, die eine elterliche Zustimmung für die Nutzung sozialer Medien durch Minderjährige vorschreiben. In Europa hingegen dominiert bislang der Ansatz der Medienkompetenzförderung und der freiwilligen Altersfreigaben, etwa durch die EU-Initiative „Better Internet for Kids“.

Gleichwohl beobachtet man auch dort die australischen Maßnahmen mit Interesse – insbesondere angesichts der schleppenden Umsetzung von EU-Vorgaben zur Plattformregulierung. Sollte sich das Modell als erfolgreich und rechtlich tragfähig erweisen, könnte es mittelfristig Nachahmer finden. Die Debatte über digitale Schutzräume für Kinder und Jugendliche ist damit um eine zentrale Facette reicher geworden.

Noch ist unklar, wie nachhaltig die australische Strategie sein wird. Viele gesperrte Konten dürften von Jugendlichen rasch wieder neu angelegt werden, sobald technische Schlupflöcher bestehen bleiben. Der langfristige Erfolg der Maßnahme wird daher weniger an der Zahl gelöschter Profile zu messen sein – als an der Fähigkeit der Politik, einen breiten gesellschaftlichen Konsens für einen verantwortungsvollen Umgang mit sozialen Medien zu schaffen.

Autor: P. Tiko

Neues E-Book bei Nachrichten.fr







Du möchtest immer die neuesten Nachrichten aus Frankreich?
Abonniere einfach den Newsletter unserer Chefredaktion!