US-Senatoren, Tech-Giganten

US-Senatoren fordern von Tech-Giganten Beweise gegen Deepfake-Missbrauch

16.01.2026 - 17:33:12

Acht einflussreiche US-Senatoren haben X, Meta und weitere Tech-Konzerne aufgefordert, konkrete Nachweise für wirksame Schutzmaßnahmen gegen sexualisierte KI-Fälschungen vorzulegen. Die Anfrage markiert eine neue Eskalationsstufe im regulatorischen Druck auf die Branche.

Die Forderung erfolgte nur Stunden, nachdem X neue Restriktionen für seinen KI-Chatbot Grok bekanntgab. Der Dienst darf nun keine Bilder realer Personen mehr in freizügige Kleidung editieren. Hintergrund sind Medienberichte, wonach Grok tausende nicht-einvernehmliche, teils minderjährig wirkende Personen darstellende Bilder generierte.

Die demokratischen Senatoren – darunter Lisa Blunt Rochester und Richard Blumenthal – halten diese reaktiven Maßnahmen für unzureichend. In ihrem Schreiben an X, Meta, Alphabet, Snap, Reddit und TikTok monieren sie eine systemische Lücke zwischen Versprechen und Plattform-Realität. Kaliforniens Justizministerin hat bereits eine separate Untersuchung gegen xAI eingeleitet.

Anzeige

Passend zum Thema KI-Regulierung: Die neuen Regeln für KI-Systeme verändern Haftung, Kennzeichnungspflichten und Nachweise – genau das, worauf die Senatoren jetzt drängen. Unser kostenloser Umsetzungsleitfaden zur EU-KI-Verordnung erklärt verständlich Risikoklassen, Dokumentationspflichten und praktische Schritte, wie Entwickler und Plattformbetreiber Compliance nachweisen. Mit konkreten Vorlagen zur Risikoanalyse, Checklisten für Entwickler und einer Übersicht zu Übergangsfristen ist er besonders nützlich für Produktmanager und Compliance-Teams. KI-Verordnung-Umsetzungsleitfaden kostenlos herunterladen

Systemversagen bei der Inhaltsmoderation

Die Probleme mit Grok waren nur der Auslöser. Die Senatoren betonen, dass es sich um ein branchenweites Problem handelt. Metas eigener Aufsichtsrat hatte im vergangenen Jahr bereits explizite KI-generierte Bilder von weiblichen öffentlichen Personen auf Facebook und Instagram gerügt. Zudem ließ Meta früher Werbung für Apps zu, die Personen digital „entkleiden“ konnten.

Die detaillierten Fragen der Politiker zielen auf die Kernprozesse der Unternehmen: Wie definieren sie Deepfake-Inhalte? Wie schulen sie Moderatoren? Welche Filter verhindern das erneute Hochladen schädlichen Materials? Besonders brisant: Die Senatoren untersuchen die Kommerzialisierung solcher Inhalte und fordern Dokumente zur Monetarisierung.

Gesetzgeber schafft neue Rechtsgrundlagen

Parallel zur Untersuchung baut der Kongress den rechtlichen Rahmen aus. Das Senat verabschiedete einstimmig den DEFIANCE Act. Das Gesetz schafft ein Bundesrecht für Opfer von Deepfake-Pornografie, gegen Ersteller und Verbreiter zu klagen. Bei Verstößen drohen Strafen bis 250.000 US-Dollar.

Das DEFIANCE-Gesetz ergänzt den bereits im Mai 2025 unterzeichneten TAKE IT DOWN Act, der die Veröffentlichung nicht-einvernehmlicher intimer Aufnahmen unter Strafe stellt. Ein weiterer Entwurf, der NO FAKES Act, soll das Recht an der eigenen Stimme und Erscheinung schützen. Die Initiativen zeigen einen parteiübergreifenden Willen, KI-Missbrauch rechtlich zu bekämpfen.

Ende der Selbstregulierung in Sicht

Die koordinierten Aktionen von Gesetzgeber und Aufsicht markieren eine Zeitenwende für die Tech-Branche. Die Ära der Selbstregulierung bei KI-Gefahren scheint zu Ende. An ihre Stelle treten Forderungen nach Transparenz, Verantwortung und überprüfbaren Schutzvorkehrungen.

Für Unternehmen wie X und Meta wächst der Druck, von reaktiven Anpassungen zu grundlegenden Sicherheitsarchitekturen überzugehen. Die Abstimmung im Repräsentantenhaus über den DEFIANCE Act wird richtungsweisend sein. Die Botschaft aus Washington ist jedoch bereits klar: Der Status quo ist inakzeptabel. Plattformen werden zunehmend für die realen Auswirkungen ihrer KI-Technologien verantwortlich gemacht.

PS: Seit August 2024 gelten bereits neue KI-Regeln – Fristen und Dokumentationspflichten betreffen jetzt auch Plattformbetreiber und Entwickler. Unser Gratis-Leitfaden zeigt konkret, welche Nachweise, Tests und Transparenz-Berichte Behörden erwarten, welche Übergangsfristen gelten und welche praktischen Schritte Compliance-Teams jetzt umsetzen sollten. Mit Checklisten zur Risikoklassifikation und Vorlagen für technische Dokumentation. Jetzt KI-Compliance-Leitfaden anfordern

@ boerse-global.de