OpenAI führt Kindersicherung für ChatGPT ein
10.09.2025 - 11:56:02Tech-Unternehmen führen umfassende Elternkontrollen ein, während neue Gesetze wie die aktualisierte COPPA strengere Datenschutzregeln für Kinder vorschreiben. Apple und Google erweitern ihre Sicherheitsfeatures.
Die Debatte um Kinderschutz im digitalen Raum erreicht einen Wendepunkt: KI-Konzerne und Gesetzgeber reagieren mit verschärften Regeln auf wachsende Sicherheitsbedenken. Diese Woche kündigten Tech-Riesen und Behörden bahnbrechende Neuerungen an, die Eltern deutlich mehr Kontrolle über die Online-Aktivitäten ihrer Kinder geben sollen.
Der Wandel geht weit über simple Bildschirmzeit-Limits hinaus. Erstmals entstehen durchdachte, datenschutzorientierte Systeme für eine zunehmend komplexe digitale Welt – angetrieben von leistungsstarker KI in alltäglichen Apps und einem sich verschärfenden Rechtsrahmen.
KI-Chatbots bekommen Elternkontrollen
OpenAI kündigt für diesen Monat die Einführung von Elternkontrollen für ChatGPT an – ein Meilenstein nach monatelangen Diskussionen über KI-Risiken für Jugendliche. Auslöser war eine Klage der Familie eines Teenagers, der nach intensiven Gesprächen mit dem Chatbot Suizid begangen hatte.
Die neuen Funktionen ermöglichen Eltern, ihre Accounts mit denen ihrer Kinder zu verknüpfen, Chat-Verläufe zu überwachen und Warnungen zu erhalten, wenn das System „akute Notlagen“ erkennt. Parallel dazu führt Australiens eSafety Commissioner weltweit erstmalig verbindliche Altersprüfungen für Tech-Unternehmen ein – besonders für den Schutz vor problematischen KI-Interaktionen.
Neue Gesetze verschärfen den Druck
Das rechtliche Umfeld wird schärfer: Die überarbeitete Children’s Online Privacy Protection Act (COPPA) der US-Handelsbehörde FTC tritt im Juni 2025 in Kraft. Unternehmen haben bis April 2026 Zeit für die vollständige Umsetzung. Die neuen Regeln verlangen strengere Einverständniserklärungen der Eltern und separate Genehmigungen, bevor Kinderdaten an Werbetreibende weitergegeben werden dürfen.
Parallel dazu verschärfen US-Bundesstaaten den Schutz: Virginia verlangt ab Januar 2025 Elternzustimmung für die Verarbeitung von Daten unter 13-Jähriger zu Werbezwecken. Florida geht noch weiter und fordert von Social-Media-Plattformen die Löschung aller Accounts von Kindern unter 14 Jahren.
Apple und Google rüsten auf
Die Plattform-Giganten reagieren mit umfassenden Updates ihrer Sicherheitsfeatures. Apple kündigt für die Herbst-Updates von iOS 26 und iPadOS 26 erweiterte Jugendschutz-Funktionen an. Neu sind detailliertere Altersfreigaben im App Store (13+, 16+, 18+) und eine Funktion, die es Eltern ermöglicht, die Altersspanne ihrer Kinder datenschutzkonform mit Apps zu teilen.
Google erweitert parallel seine Family Link-App um neue Bildschirmzeit-Tools und eine „Schulzeit“-Funktion, die ablenkende Inhalte während der Unterrichtszeit auf Android-Geräten blockiert.
Anzeige: Apropos Android und Family Link: Viele Nutzer übersehen fünf einfache Schutzmaßnahmen, die WhatsApp, Online?Banking und Shopping deutlich sicherer machen. Ein kostenloser Ratgeber führt Schritt für Schritt durch geprüfte Einstellungen – ohne Extra?Apps und für Einsteiger geeignet. Jetzt das kostenlose Android?Sicherheitspaket anfordern
Reaktion statt Prävention?
Die aktuelle Entwicklungswelle zeigt eine Branche am Scheideweg zwischen Innovation und Verantwortung. OpenAIs Elternkontrollen wirken hauptsächlich als Schadensbegrenzung nach tragischen Zwischenfällen – im Gegensatz zu Apples und Googles proaktiverem Ansatz, der Sicherheitsfeatures tief in die Betriebssysteme integriert.
Problematisch bleibt der Flickenteppich verschiedener US-Bundesstaatsgesetze. Während die FTC ein neues bundesweites Minimum setzt, erschwert die Vielzahl unterschiedlicher Bestimmungen die Umsetzung für Entwickler erheblich.
Entscheidende 18 Monate stehen bevor
Die kommenden eineinhalb Jahre werden zur Bewährungsprobe für die gesamte Branche. Unternehmen müssen bis April 2026 die neuen COPPA-Regeln umsetzen und sich gleichzeitig an die verschiedenen Landesgesetze anpassen. Für Eltern bedeutet das eine Flut neuer Tools, die erst verstanden und richtig eingesetzt werden müssen.
Der Fokus verschiebt sich von simplen Zugangs-Sperren hin zum aktiven Management immer intelligenterer digitaler Plattformen. Da sich KI-Technologien rasant weiterentwickeln, werden die Herausforderungen kontinuierlich komplexer – und die Wirksamkeit neuer Schutzmaßnahmen wird sich erst in der Praxis beweisen müssen.