Deepfake-Strafrecht: Deutschland drängt auf Gesetz, doch Berlin zögert
07.01.2026 - 17:10:12
Während die Bundesregierung in Brüssel schärfere Plattform-Regeln fordert, liegt der eigene Gesetzentwurf gegen digitale Fälschungen seit Monaten im Bundestag auf Eis. Die Lücke im Strafrecht bleibt damit vorerst offen.
Berlin/Brussels – Die Welle nicht einvernehmlicher Deepfakes auf Social-Media-Plattformen hat die Debatte um Haftung für KI-Fälschungen neu entfacht. Deutsche Behörden fordern zwar entschlossenes Handeln, doch das geplante nationale Kernstück des Schutzes – der neue § 201b StGB – steckt weiterhin im parlamentarischen Verfahren fest. Das zeigt ein aktueller Statusbericht zum Stand des Gesetzgebungsverfahrens Anfang 2026.
Das Bundesministerium für Digitales und Verkehr (BMDV) appellierte erst am Dienstag an europäische Regulierer, entschieden gegen Plattformen vorzugehen, die „industrialisierte sexuelle Belästigung“ durch KI ermöglichen. Gleichzeitig wartet der nationale Gesetzentwurf, der genau diese Taten unter Strafe stellen soll, seit August 2025 auf seine Verabschiedung. Ein eklatanter Widerspruch?
Viele Unternehmen unterschätzen die Pflichten aus der EU‑KI‑Verordnung und riskieren damit Bußgelder oder Haftungsrisiken für ihre KI‑Projekte. Unser kostenloser Umsetzungsleitfaden erklärt klar und praxisnah, welche Kennzeichnungs- und Dokumentationspflichten gelten, wie Sie Ihr System richtig klassifizieren und welche ersten Schritte Compliance‑teams jetzt ergreifen sollten. Ideal für Entwickler, Anbieter und Compliance‑Verantwortliche, die generative KI rechtssicher einsetzen wollen. Jetzt kostenlosen KI‑Verordnungs‑Leitfaden herunterladen
§ 201b StGB: Der steckengebliebene Gesetzentwurf
Eigentlich sollte das „Gesetz zum strafrechtlichen Schutz von Persönlichkeitsrechten vor Deepfakes“ schon Ende 2025 in Kraft treten. Doch die Realität sieht anders aus: Der Entwurf (Drucksache 21/1383) verharrt seit Monaten in der Ausschussphase des Bundestags. Dort wird intensiv über seinen Anwendungsbereich und mögliche Auswirkungen auf Grundrechte gestritten.
Das geplante Gesetz soll eine Lücke im deutschen Strafrecht schließen. Bisher erfassen Paragrafen wie § 201a StGB (Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen) oder § 185 StGB (Beleidigung) die spezifische Natur synthetischer Medien oft nicht. Denn bei Deepfakes wird kein „echtes“ Bild gestohlen, sondern eine täuschend echte, aber komplett erfundene Situation generiert.
Bis zu fünf Jahre Haft für „Deepnudes“
Der Kern des Vorhabens ist die Einführung des § 201b StGB („Verletzung des Persönlichkeitsrechts durch digitale Fälschung“). In der aktuellen Fassung würde das Gesetz die Herstellung und Verbreitung täuschend echter Medieninhalte unter Strafe stellen, sofern sie Persönlichkeitsrechte erheblich verletzen können.
Die zentralen Punkte des Entwurfs:
* Strafbarkeit: Das Erstellen und Verbreiten betrügerischer oder schädigender Deepfakes wäre mit bis zu zwei Jahren Freiheitsstrafe oder Geldstrafe bedroht.
* Schwere Fälle: Bei „Deepnudes“ (sexuell explizite Fälschungen) oder Fälschungen zur politischen Meinungsmanipulation könnte die Strafe auf bis zu fünf Jahre steigen.
* Einziehung: Hardware und Software, die für die Tat genutzt wurden, könnten eingezogen werden – eine Maßnahme zur Abschreckung von Wiederholungstätern.
Eine Sozialadäquanzklausel soll die Kunst-, Wissenschafts- und Pressefreiheit schützen. Inhalte zu diesen Zwecken wären straffrei, solange sie die Rechte der abgebildeten Person nicht unverhältnismäßig verletzen.
Kritik: Zu vage und gefährlich für die Kunstfreiheit?
Die Verzögerung ist vor allem auf erheblichen Widerstand von Rechtsexperten und Verbänden zurückzuführen. Die Bundesrechtsanwaltskammer (BRAK) kritisierte die Formulierungen Ende 2025 als „zu vage“ und warnte vor Rechtsunsicherheit.
Kritiker sehen die Gefahr einer „Überkriminalisierung“. Satirische Inhalte oder harmlose Memes könnten unter das Gesetz fallen, wenn der „Verletzungsvorsatz“ zu weit ausgelegt wird. Die Grenze zwischen bösartigem Deepfake und anspruchsvoller Parodie ist oft fließend und erfordert eine sensible richterliche Abwägung.
Digitalrechtler befürchten zudem einen „chilling effect“: Die Drohung mit Ermittlungen und Beschlagnahmungen könnte digitale Künstler und Content-Schaffende einschüchtern und Innovationen im Bereich generativer KI behindern.
Neue Dringlichkeit durch „Grok“-Vorfall und EU-Druck
Eine neue Dringlichkeit erhielt die Debatte diese Woche durch Vorfälle auf EU‑Ebene. Am 6. Januar berichteten Medien über eine Flut KI‑generierter expliziter Inhalte auf der Plattform X (ehemals Twitter), die angeblich durch den KI‑Chatbot „Grok“ erleichtert wurde.
Das deutsche Digitalministerium forderte daraufhin die EU‑Kommission auf, den Digital Services Act (DSA) strenger durchzusetzen. Ein Ministeriumssprecher betonte: „Wer solche Bilder ohne Einwilligung erstellt oder verbreitet, begeht einen schwerwiegenden Eingriff in das Persönlichkeitsrecht.“ Dies unterstreicht den Widerspruch zwischen der moralischen Schwere der Tat und der aktuellen strafrechtlichen Lücke.
Die seit 2026 voll anwendbare EU‑KI‑Verordnung schreibt zwar Transparenz und Kennzeichnung für KI‑generierte Inhalte vor (Artikel 50). Strafrechtliche Konsequenzen für Urheber schädlicher Deepfakes leitet sie aber nicht direkt ab. Genau diese „Vollzugslücke“ soll der deutsche § 201b StGB schließen.
Ausblick: Kommt der Kompromiss im ersten Quartal 2026?
Rechtsexperten rechnen damit, dass der Rechtsausschuss des Bundestags die Beratungen noch in diesem Monat wieder aufnimmt. Der Druck auf die Abgeordneten wächst, einen Kompromiss zu finden. Er muss Opfer digitaler Gewalt – besonders von sexualisierten Deepfakes betroffene Frauen – schützen, ohne die Kunstfreiheit unzulässig einzuschränken.
Für Unternehmen und Compliance-Beauftragte ist die Botschaft klar: Auch wenn § 201b StGB noch nicht gilt, verschärft sich das regulatorische Umfeld. Firmen, die generative KI nutzen, sollten die Transparenzvorgaben der EU-KI-Verordnung bereits jetzt einhalten. Sie müssen sich auf eine Haftungslandschaft einstellen, in der die Erstellung nicht einvernehmlicher synthetischer Medien bis Mitte 2026 schwere strafrechtliche Folgen haben dürfte.
PS: Nutzen Sie die Zeit bis zur endgültigen Gesetzeslage, um Ihre KI‑Projekte rechtssicher aufzustellen. Das kostenlose E‑Book zur EU‑KI‑Verordnung fasst Kennzeichnungspflichten, Risikoklassen und Übergangsfristen kompakt zusammen und bietet praktische Checklisten für die sofortige Umsetzung in Ihrem Unternehmen. Schützen Sie sich vor Haftungsrisiken und setzen Sie Compliance‑Prioritäten richtig. Gratis E‑Book zur EU‑KI‑Verordnung herunterladen

