Großbritannien macht Deepfake-Pornografie ohne Einwilligung strafbar
23.01.2026 - 20:02:12Ab 6. Februar 2026 ist die Erstellung nicht-einvernehmlicher intimer KI-Bilder in Großbritannien ein Straftatbestand. Die Regierung schließt damit eine gefährliche Gesetzeslücke und geht gegen den Missbrauch generativer KI vor. Parallel ermittelt die Aufsichtsbehörde Ofcom gegen die Plattform X.
Die beschleunigte Verabschiedung des neuen Straftatbestands erfolgt über das Data (Use and Access) Act 2025. Bislang war nur das Verbreiten solcher Bilder strafbar, nicht aber ihre Erstellung. Diese Grauzone wird nun geschlossen. Künftig ist es illegal, ein „vermeintlich intimes Bild“ eines Erwachsenen ohne dessen ausdrückliche Einwilligung zu generieren oder dessen Erstellung in Auftrag zu geben.
Auslöser für das rasche Handeln waren Vorfälle mit dem KI-Tool Grok der Plattform X. Dieses wurde genutzt, um entwürdigende Bilder von Frauen und Kindern zu erstellen. Die Regierung reagiert damit auf wachsende öffentliche Besorgnis über die leicht zugängliche Macht von KI-Bildgeneratoren.
Die Debatte um nicht-einvernehmliche Deepfakes zeigt, wie schnell KI-Recht entsteht. Die EU und nationale Regulierer haben umfangreiche Pflichten für Anbieter beschlossen — jetzt kommt es auf Klassifizierung, Kennzeichnung und Dokumentation an. Unser kostenloser Umsetzungsleitfaden zur EU‑KI‑Verordnung erklärt, welche Anforderungen Entwickler und Plattformbetreiber kennen müssen, welche Pflichten für Risikoklassen gelten und welche Fristen Sie nicht verpassen dürfen. Inklusive Praxis-Checklisten zur sofortigen Umsetzung. Jetzt kostenlosen KI-Leitfaden herunterladen
Schärfere Werkzeuge gegen digitalen Missbrauch
Das neue Gesetz stattet die Justiz mit wirksameren Mitteln aus. Ein zentraler Punkt: Gerichte können künftig „Deprivation Orders“ für nicht-einvernehmliche Bilder erlassen. Diese Beschlüsse sollen die weitere Verbreitung unterbinden.
Die Regelung ergänzt das bestehende Online Safety Act. Dieses stuft das Teilen intimer Deepfakes bereits als „prioritäre Straftat“ ein. Plattformen sind damit verpflichtet, präventiv gegen solche Inhalte vorzugehen und sie schnell zu löschen. Zudem plant die Regierung, über ein weiteres Gesetz sogenannte „Nudification Apps“ zu verbieten – also Tools, die speziell zum Entfernen von Kleidung aus Fotos entwickelt wurden.
Tech-Plattformen unter Druck: Ofcom ermittelt gegen X
Während das Parlament schärfere Gesetze beschließt, erhöht die Aufsichtsbehörde Ofcom den Druck auf die Tech-Konzerne. Am 12. Januar 2026 leitete Ofcom eine formelle Untersuchung gegen X ein. Geprüft wird, ob die Plattform ihren Pflichten aus dem Online Safety Act nachkommt.
Im Fokus stehen die Risikobewertungen, die X vor dem Start neuer KI-Funktionen wie Grok vorgenommen hat. Ofcom prüft, ob angemessene Schritte zum Schutz vor illegalen Inhalten – wie nicht-einvernehmlichen Bildern und Missbrauchsdarstellungen von Kindern – unternommen wurden. Zwar hat X inzwischen Restriktionen für sein KI-Tool eingeführt, die Untersuchung läuft jedoch weiter. Bei Verstößen drohen Strafen von bis zu 18 Millionen Pfund oder 10 Prozent des globalen Jahresumsatzes.
Reaktion auf eine eskalierende Bedrohung
Der politische Vorstoß ist eine direkte Antwort auf eine alarmierende technologische Entwicklung. Die Internet Watch Foundation (IWF) meldete für 2025 einen Rekord an Missbrauchsdarstellungen von Kindern im Netz – mit einem starken Anstieg fotorealistischer, KI-generierter Videos. Experten warnen: Solches Material kann erheblichen psychischen Schaden verursachen und gilt rechtlich oft bereits als Missbrauchsdarstellung, auch wenn es künstlich erzeugt wurde.
Technologie-Ministerin Liz Kendall betonte bei der Ankündigung, es handele sich bei den Inhalten nicht um harmlose Scherze, sondern um eine „Waffe des Missbrauchs“. Die Botschaft ist klar: Die Verantwortung der Tech-Unternehmen beginnt bei der Produktentwicklung, nicht erst beim Löschen schädlicher Inhalte.
Ausblick: Mehr Verantwortung für KI-Hersteller
Mit dem Inkrafttreten des Gesetzes Anfang Februar beginnt die Bewährungsprobe. Alle Augen werden auf die Strafverfolgung und das Ofcom-Verfahren gegen X gerichtet sein. Großbritannien positioniert sich damit an der Spitze der Regulierung von KI-Risiken.
Für Tech-Firmen bedeutet dies enormen Druck. Sie müssen nachweisen, dass ihre Produkte von vornherein mit wirksamen Schutzvorkehrungen gegen Missbrauch ausgestattet sind. Die britische Linie könnte zum Vorbild für andere Länder werden, die mit derselben Herausforderung ringen: Wie schützt man die Gesellschaft vor den Schattenseiten der KI, ohne Innovation zu ersticken? Die Erwartung an die Industrie ist eindeutig: Sicherheit muss integraler Bestandteil des Designs werden.
PS: Die neuen KI-Regeln bringen Pflichtfristen, Kennzeichnungspflichten und Nachweisanforderungen für Anbieter. Wer jetzt handelt, minimiert rechtliche Risiken und zeigt Aufsichtsbehörden, dass Produkte mit Blick auf Missbrauch gebaut wurden. Unser Gratis-Report zur EU‑KI‑Verordnung liefert eine Schritt-für-Schritt-Checkliste für Klassifizierung, Dokumentation und Meldepflichten — ideal für Produktverantwortliche und Entwickler, die Compliance sofort umsetzen müssen. KI‑Verordnung jetzt kostenlos lesen


