OpenAI und Common Sense Media schließen Pakt für sichere KI für Jugendliche
12.01.2026 - 11:00:12OpenAI und die Kinderschutzorganisation Common Sense Media haben eine wegweisende Allianz für sichere KI-Anwendungen für Minderjährige geschlossen. Die Partnerschaft mündet in einen gemeinsamen Gesetzesvorschlag mit strengen Schutzvorkehrungen für Teenager.
Der Schritt markiert eine strategische Kehrtwende. Noch vor wenigen Tagen unterstützten beide Seiten konkurrierende Gesetzesinitiativen im US-Bundesstaat Kalifornien. Nun vereinen sie ihre Kräfte im sogenannten „Parents & Kids Safe AI Act“. OpenAI stellt dafür mindestens zehn Millionen Euro bereit. Sollte der Vorschlag im November an der Wahlurne Erfolg haben, würde er verbindliche Standards für alle KI-Unternehmen in Kalifornien setzen – und damit wahrscheinlich weltweit Maßstäbe definieren.
Der gemeinsame Gesetzesentwurf sieht ein Bündel verbindlicher Sicherheitsmaßnahmen vor. KI-Chatbots müssen demnach künftig eine Reihe technischer Hürden überwinden, bevor sie mit jungen Nutzern interagieren können.
Im Zentrum steht eine verpflichtende Altersschätzung. Plattformen müssen mit datenschutzfreundlicher Technologie das Alter ihrer Nutzer möglichst genau einschätzen. Für alle, die als unter 18 identifiziert werden, greifen automatisch schärfere Filter. Sie blockieren Inhalte zu Selbstverletzung, Gewalt und sexuell explizitem Material.
Passend zum Thema KI‑Regulierung: Während Kalifornien mit dem „Parents & Kids Safe AI Act“ Standards setzt, gelten auch in Europa klare Pflichten für Anbieter von KI‑Systemen. Die EU‑KI‑Verordnung verlangt u. a. Risikoklassifizierung, Kennzeichnungspflichten und ausführliche Dokumentation – Versäumnisse können zu Bußgeldern und Marktbeschränkungen führen. Ein kompakter Umsetzungsleitfaden erklärt, wie Sie Ihr System richtig klassifizieren und kurzfristig konform werden. KI‑Verordnung: Gratis‑Umsetzungsleitfaden herunterladen
Weitere Kernpunkte sind ein strikter Datenschutz und neue Anti-Manipulations-Regeln. Die Weitergabe oder der Verkauf von Daten aus Teenager-Accounts ist ohne ausdrückliche elterliche Zustimmung verboten. Zudem sollen KI-Systeme keine manipulativen Designmuster mehr anwenden dürfen – also etwa keine romantischen Beziehungen simulieren oder exzessive emotionale Abhängigkeit fördern.
Vom Konkurrenten zum Partner
Die Zusammenarbeit ist bemerkenswert. Common Sense Media, eine renommierte Non-Profit-Organisation, und der KI-Pionier OpenAI standen sich zuletzt als Rivalen gegenüber. Ihre konkurrierenden Volksinitiativen drohten, die Wähler zu verwirren und die regulatorische Wirkung zu verwässern.
„Wir haben diese Initiative geschrieben, um Kinder zu schützen, und wir begrüßen die volle Unterstützung von OpenAI“, erklärte ein Sprecher von Common Sense Media. „Statt die Wähler mit konkurrierenden Maßnahmen zu verwirren, arbeiten wir gemeinsam daran, starke Schutzvorkehrungen für Kinder, Teenager und Familien zu erlassen.“
OpenAI betont sein Engagement für die Stärkung der Eltern. Während KI ein mächtiges Werkzeug sei, benötigten Eltern robuste Mechanismen, um die sichere Nutzung durch ihre Kinder zu gewährleisten, so Chris Lehane, Chief Global Affairs Officer von OpenAI.
Paralleler Launch: ChatGPT Health startet mit Fokus auf Sicherheit
Zeitgleich mit der Teenager-Sicherheitsinitiative hat OpenAI am Montag offiziell ChatGPT Health gestartet. Dieser neue, abgeschirmte Bereich für Gesundheits- und Wellness-Anfragen unterstreicht den unternehmensweiten Fokus auf Sicherheitsbarrieren für sensible Anwendungsfälle.
ChatGPT Health ist für den Umgang mit sensiblen medizinischen Daten konzipiert. Eine „maßgeschneiderte Verschlüsselung“ und strikte Isolierung vom allgemeinen Modelltraining sollen Privatsphäre garantieren. Nutzer können Daten von Wearables und Gesundheitsakten sicher integrieren, um personalisierte Ratschläge zu erhalten. Spezielle Sicherheitsprotokolle sollen verhindern, dass das Modell unbestätigte Diagnosen stellt. Stattdessen wird es Nutzer zu professionellem klinischem Rat lenken.
Branche unter Beobachtungsdruck
Die Tech-Branche beobachtet die Entwicklung genau. Kalifornien gilt oft als regulatorischer Trendsetter für die USA und die Welt. Indem OpenAI den „Parents & Kids Safe AI Act“ aktiv mitfinanziert und mitgestaltet, positioniert sich das Unternehmen als Vorreiter für „verantwortungsvolle KI“. Es könnte damit de-facto-Standards für Wettbewerber wie Anthropic oder Google setzen.
Rechtsexperten weisen darauf hin, dass der Gesetzesvorschlag bei einem Erfolg unabhängige Sicherheitsaudits für alle in Kalifornien tätigen KI-Firmen vorschreiben würde. Sie müssten potenzielle Kindesgefährdungen direkt dem Generalstaatsanwalt des Bundesstaates melden.
Für Nutzer dürften sich die Änderungen bald bemerkbar machen. Die Integration von Altersvorhersagetechnologien und die Durchsetzung von „Auszeiten“ – Features, die Ende 2025 angekündigt wurden – werden wahrscheinlich beschleunigt, um die Einhaltung der neuen Grundsätze zu demonstrieren.
Die Allianz zwischen einem führenden KI-Entwickler und einer prominenten Kinderschutz-Organisation leitet eine neue Ära der Kooperation ein. Sie bewegt die Branche weg von der Selbstregulierung hin zu kodifizierten, durchsetzbaren Sicherheitsstandards.
PS: Die Debatte um Teenager‑Schutz zeigt: Neue Regeln verändern, wie KI‑Produkte auf den Markt kommen. Wenn Ihr Unternehmen KI nutzt oder entwickelt, ist jetzt Handeln gefragt. Ein praxisnahes E‑Book zur EU‑KI‑Verordnung bietet konkrete Checklisten, Risikokategorien und Kennzeichnungstipps, damit Sie Fristen einhalten und Rechtsrisiken minimieren. Kostenfreies E‑Book zur EU‑KI‑Verordnung jetzt sichern


