Europaparlament, Verbot

Europaparlament fordert Verbot von Suchtfunktionen für Minderjährige

26.11.2025 - 16:01:12

Das Europaparlament fordert mit großer Mehrheit Verbote suchterzeugender Funktionen und einheitliche Altersgrenzen, um Minderjährige vor digitalen Risiken zu schützen.

Das Europaparlament hat am Mittwoch mit überwältigender Mehrheit verschärfte Regelungen für Social-Media-Plattformen beschlossen. Im Fokus: der Schutz junger Nutzer vor manipulativen Design-Tricks und kommerzieller Ausbeutung. Ein Weckruf an Silicon Valley – und ein Signal, dass die Ära der Selbstregulierung vorbei ist.

Die Botschaft aus Brüssel ist eindeutig: 483 Abgeordnete stimmten für den Bericht, nur 92 dagegen, 86 enthielten sich. Mit diesem klaren Votum fordern die Parlamentarier die EU-Kommission auf, den Jugendschutz im digitalen Raum zur Priorität zu machen. Denn die bisherigen Maßnahmen des Digital Services Act (DSA) reichen nach Ansicht der Abgeordneten nicht aus, um Kinder und Jugendliche vor den Gefahren sozialer Netzwerke zu schützen.

“Ich bin stolz auf dieses Parlament, dass wir gemeinsam für den Schutz Minderjähriger im Netz einstehen”, erklärte die dänische Sozialdemokratin Christel Schaldemose, die den Bericht federführend erarbeitet hat. “Zusammen mit einer konsequenten Durchsetzung des Digital Services Act werden diese Maßnahmen das Schutzniveau für Kinder dramatisch erhöhen. Wir ziehen endlich eine klare Linie und sagen den Plattformen: Eure Dienste sind nicht für Kinder gemacht. Das Experiment endet hier.”

Schluss mit endlosem Scrollen und Autoplay

Die Resolution zielt direkt auf das Geschäftsmodell der “Aufmerksamkeitsökonomie” ab – zumindest wenn es um Minderjährige geht. Konkret fordert das Parlament:

Anzeige

Passend zum Thema KI-Begleiter und algorithmische Risiken: Die EU arbeitet an Regeln, die Anbieter und Entwickler von KI-Systemen zur Rechenschaft ziehen. Wer wissen will, welche Kennzeichnungspflichten, Risikoklassen und Dokumentationspflichten auf Unternehmen zukommen, findet im kostenlosen Umsetzungsleitfaden zur EU-KI-Verordnung klare, praxisnahe Handlungsschritte – inklusive Checklisten und Fristen, die Sie sofort umsetzen können. KI-Verordnung: Gratis Umsetzungsleitfaden herunterladen

  • Verbot süchtig machender Features: Funktionen wie “Infinite Scroll”, automatische Video-Wiedergabe und Belohnungssysteme sollen für unter 18-Jährige standardmäßig verboten werden.
  • Ende der kommerziellen Ausbeutung: Plattformen sollen keine finanziellen oder materiellen Anreize mehr bieten dürfen, um Kinder als Influencer einzusetzen – eine Praxis, die als “Kidfluencing” bekannt ist.
  • Einheitliches Mindestalter: Die Abgeordneten schlagen ein EU-weites digitales Mindestalter von 16 Jahren vor. Derzeit variiert die Altersgrenze in den Mitgliedstaaten zwischen 13 und 16 Jahren.
  • KI-Begleiter im Visier: Erstmals thematisiert der Bericht auch die Risiken von KI-Chatbots und virtuellen Begleitern, die emotional manipulative Beziehungen zu gefährdeten Jugendlichen aufbauen können.

Zusätzlich drängt das Parlament darauf, bestehende DSA-Bestimmungen schneller durchzusetzen – besonders jene zu Empfehlungsalgorithmen, die Teenagern gezielt schädliche Inhalte wie Essstörungen oder Selbstverletzung zuspielen.

Globaler Trend: Auch Australien greift durch

Das EU-Votum kommt zu einem bemerkenswerten Zeitpunkt. Während in Brüssel debattiert wurde, bereitete Australien seinen eigenen Paukenschlag vor: Ab dem 10. Dezember 2025 gilt dort ein striktes Verbot von Social-Media-Konten für unter 16-Jährige. Die Plattformen selbst müssen das Alter verifizieren – bei Verstößen drohen Strafen von bis zu 50 Millionen australischen Dollar (rund 30 Millionen Euro).

Im Gegensatz zum australischen Modell erlaubt der EU-Vorschlag die Nutzung zwischen 13 und 16 Jahren mit elterlicher Zustimmung – ein flexiblerer Ansatz. Dennoch zeigt die zeitliche Parallele: Weltweit wächst der Konsens, dass die Selbstregulierung der Tech-Giganten gescheitert ist.

“Die globale Stimmung kippt”, kommentierten Digitalexperten das Abstimmungsergebnis. “Von Canberra bis Brüssel: Gesetzgeber schreiten zur Tat, getrieben von Daten, die unregulierte Social-Media-Nutzung mit einer Jugend-Krise bei der mentalen Gesundheit in Verbindung bringen.”

Alarmierende Zahlen zur psychischen Gesundheit

Der Parlamentsbericht stützt sich auf Forschungsergebnisse, die einen Zusammenhang zwischen intensiver Social-Media-Nutzung und sinkendem Wohlbefinden Jugendlicher belegen. Laut den Daten zeigt fast jeder vierte Minderjährige ein “problematisches” oder “dysfunktionales” Smartphone-Nutzungsverhalten – Muster, die einer Verhaltenssucht gleichen.

Noch besorgniserregender: 97 Prozent der jungen Europäer nutzen täglich das Internet, die große Mehrheit der 13- bis 17-Jährigen checkt ihre Geräte mindestens stündlich. Diese ständige Konnektivität, so die Abgeordneten, stört Schlaf, Konzentration und soziale Entwicklung.

“Wir sprechen hier nicht nur über Bildschirmzeit. Wir sprechen über die Manipulation sich entwickelnder Gehirne”, betonte Schaldemose. “Wenn Algorithmen darauf getrimmt sind, Engagement auf Kosten der mentalen Gesundheit zu maximieren, haben wir die Pflicht einzugreifen.”

Was bedeutet das für Meta, TikTok und Co.?

Für die großen Plattformen wie Meta (Instagram, Facebook), ByteDance (TikTok) und Alphabet (YouTube) zieht sich die regulatorische Schlinge zu. Zwar ist die Resolution selbst rechtlich nicht bindend, doch der politische Druck auf die EU-Kommission ist enorm.

Die Tech-Industrie wehrt sich traditionell gegen pauschale Verbote oder strikte Altersbeschränkungen und argumentiert mit digitalen Rechten. Unternehmen verweisen auf eigene Sicherheitstools wie “Family Pairing”-Modi oder Zeitlimit-Erinnerungen. Doch die Botschaft des Parlaments ist unmissverständlich: Freiwillige Maßnahmen reichen nicht mehr aus.

Wie geht es jetzt weiter?

Der Ball liegt nun bei der EU-Kommission. Das Parlament fordert eine Überprüfung bestehender Lücken im Verbraucherrecht und in der Richtlinie über unlautere Geschäftspraktiken. Beobachter erwarten, dass die Kommission 2026 einen “Digital Fairness Act” oder ein ähnliches Gesetz vorlegen wird, um die Forderungen rechtlich zu verankern.

Kurzfristig richtet sich der Blick auf die Durchsetzung des Digital Services Act. Mit dem Rückhalt des Parlaments dürfte die Kommission laufende Untersuchungen zur Plattform-Compliance verschärfen – mit besonderem Fokus auf Minderjährigenschutz.

Während Australien am 10. Dezember vorprescht und die EU ihren Kurs neu absteckt, zeichnet sich 2025 als das Jahr ab, in dem die Welt die Grenzen der Kindheit im digitalen Zeitalter neu definiert. Bleibt die Frage: Werden die Plattformen mitziehen – oder auf Konfrontation setzen?

Anzeige

PS: Seit August 2024 gelten neue KI-Regeln – viele Unternehmen und Plattformen unterschätzen die Auswirkungen. Wenn Sie mit Algorithmen arbeiten oder Plattformfunktionen entwickeln, sollten Sie die Übergangsfristen, Kennzeichnungspflichten und Dokumentationsanforderungen kennen. Der kostenlose Leitfaden erklärt Schritt für Schritt, wie Sie Ihr System richtig klassifizieren und Bußgeldern vorbeugen. Jetzt kostenlosen KI-Umsetzungsleitfaden sichern

@ boerse-global.de