AI-Sextortion: Rekordzahlen bei Erpressung mit gefälschten Intim-Bildern
28.11.2025 - 00:09:12Die digitale Erpressung erreicht eine neue, beunruhigende Dimension: Kriminelle nutzen künstliche Intelligenz, um Opfer mit täuschend echten gefälschten Nacktbildern zu erpressen – und die Fallzahlen explodieren förmlich.
Diese Woche schlugen Cybersicherheitsexperten in Neuseeland und Ermittler in Indien gleichzeitig Alarm. Am Mittwoch veröffentlichte die neuseeländische Online-Sicherheitsorganisation Netsafe einen Bericht, der aufzeigt: Die Meldungen über KI-generierte Falschbilder und Erpressungsversuche haben historische Höchststände erreicht. Parallel dazu bestätigte die Polizei in Bengaluru einen besonders perfiden Fall: Ein Student war Opfer einer hochentwickelten Erpressungsfalle geworden – mutmaßlich unter Einsatz von KI-Identitätstäuschung.
Die Zahlen aus dem neuseeländischen Jahresbericht 2024–2025 sprechen eine deutliche Sprache: 26.105 Meldungen über digitale Übergriffe registrierte Netsafe zwischen Juli 2024 und Juni 2025. Besonders drastisch: Die Beschwerden nach dem Gesetz gegen schädliche digitale Kommunikation (HDCA) schnellten auf 6.404 hoch – ein Rekordwert seit Einführung des Gesetzes vor knapp zehn Jahren.
„Wir erleben einen regelrechten Boom bei KI-generierten gefälschten Nacktbildern, Sextortion, Täuschungsmanövern und digitalen Missbrauchsformen”, erklärte Brent Carey, Geschäftsführer von Netsafe, am Mittwoch. „Das sind Bedrohungen, die bei der Ausarbeitung des HDCA schlicht nicht existierten. Das Gesetz kann nicht mithalten – und die Neuseeländer zahlen den Preis dafür.”
Passend zum Thema: Viele Opfer geraten über Messenger-Videoanrufe und unsichere Smartphone-Einstellungen in die Fänge von Erpressern. Ein kostenloses Sicherheitspaket zeigt die 5 wichtigsten Schutzmaßnahmen für Android – mit klaren Schritt-für-Schritt-Anleitungen für WhatsApp, App-Berechtigungen, sichere Backups und geschützte Fotoübertragung. Praktische Checklisten helfen Ihnen, Einstellungen sofort zu ändern und Risiken zu verringern. Gratis-Ratgeber: 5 Schutzmaßnahmen für Ihr Android herunterladen
Die Erpressungsversuche gehen Hand in Hand mit zunehmend raffinierten Online-Betrugsmaschen. Allein die verifizierten finanziellen Verluste belaufen sich auf nahezu zehn Millionen Euro. Kriminelle setzen verstärkt auf „hochentwickelte Täuschungstaktiken” – darunter hyperrealistische KI-Bilder und Deepfake-Audio, um Druck auf ihre Opfer auszuüben.
Die „KI-Falle”: Wie ein Student in die Erpressungsfalle tappte
Der Fall aus Indien zeigt exemplarisch, wie global und ausgeklügelt diese Bedrohung inzwischen ist. Am 27. November nahm die Polizei in Bengaluru Ermittlungen auf: Ein 24-jähriger sri-lankischer Student war über Instagram von einem Account namens „Deepika” kontaktiert worden.
Nach Wechsel auf WhatsApp setzten die Betrüger mutmaßlich KI-Tools ein, um bei Videoanrufen eine Frau zu imitieren. Sie lockten den Studenten in eine kompromittierende Situation, zeichneten heimlich auf und drohten anschließend mit der Veröffentlichung des Materials. Der verängstigte Student überwies umgerechnet rund 380 Euro, bevor er zur Polizei ging – denn die Forderungen hörten nicht auf.
Dieser Fall verkörpert das Modell der „finanziellen Sextortion”: Es geht primär um Geld, nicht um sexuelle Befriedigung. Das FBI und internationale Behörden warnen bereits, dass dies zur dominierenden Form dieser Kriminalität wird.
FBI warnt vor „sadistischer” Eskalation
Die Bedrohungslage verschärft sich dramatisch. Am 21. November warnte das FBI vor einer „sadistischen” Weiterentwicklung dieser Erpressungsmaschen. Täter würden nicht nur Geld fordern, sondern zunehmend Minderjährige dazu bringen, sich selbst zu verletzen – oder Schlimmeres.
Warum ist KI so gefährlich? Die generative künstliche Intelligenz senkt die Einstiegshürden für Kriminelle massiv:
- Täuschend echte Fälschungen: Aus harmlosen Social-Media-Fotos werden realistische „Erpressungsbilder” generiert
- Identitätsdiebstahl 2.0: Deepfake-Video und -Audio ermöglichen die Imitation romantischer Interessen
- Automatisierte Jagd: Bots können tausende potenzielle Opfer gleichzeitig ins Visier nehmen
Das FBI betont: Diese „finanziellen Sextortion”-Ringe operieren häufig aus dem Ausland, was Strafverfolgung erheblich erschwert.
Hilflose Gegenwehr: Gesetze und Technik im Rückstand
Der Netsafe-Bericht löste umgehend Rufe nach Gesetzesreformen aus. „Kurzfristige Flickschusterei und Stückwerk-Projekte schützen die Neuseeländer langfristig nicht”, mahnte Carey und forderte eine grundlegende Überarbeitung des HDCA – mit expliziten Regelungen zu KI-generierten Inhalten.
Diese Forderung spiegelt internationale Entwicklungen wider. In den USA und der Europäischen Union debattieren Gesetzgeber über strenge Haftungsregelungen für Plattformen, die nicht-einvernehmliche Deepfake-Inhalte hosten.
Auch Tech-Giganten reagieren: Meta führte im Oktober neue Instagram-Funktionen gegen Sextortion ein – darunter Screenshot-Schutz für „einmal ansehen”-Bilder und automatische Unschärfe bei Nacktheit in Direktnachrichten minderjähriger Accounts. Doch die steigenden Fallzahlen zeigen: Die technischen Schutzmaßnahmen hinken der rasanten Entwicklung der KI-Werkzeuge hoffnungslos hinterher.
Die Ära des digitalen Misstrauens
Cybersicherheitsexperten zeichnen ein düsteres Bild: Wir betreten eine „Zero-Trust”-Ära für digitale Medien. Wenn KI überzeugende Beweise für nicht existierende Ereignisse generieren kann, verändert sich die gesamte Logik der Erpressung.
„Wenn man Bilder, Audio und Video fälschen kann, steht plötzlich alles infrage”, betonte Hany Farid, Professor an der University of California, Berkeley, in Kommentaren, die indische Medien diese Woche im Kontext des Bengaluru-Falls aufgriffen.
Was können Nutzer tun? Behörden empfehlen ein striktes Schutzprotokoll:
- Privatsphäre abschotten: Social-Media-Profile auf „nur Freunde” beschränken, um Kriminellen keine Trainingsbilder für KI zu liefern
- Identitäten verifizieren: Skeptisch bleiben bei unaufgeforderten Nachrichten – auch mit Video, denn Echtzeit-Deepfakes sind Realität
- Melden statt zahlen: Sofort zur Polizei gehen. Lösegeld stoppt die Belästigung selten, wie der Bengaluru-Fall zeigt
Mit Berichten wie dem von Netsafe entwickelt sich 2025 zum Wendejahr: Gesetzgebung und Technologie müssen dringend aufholen, bevor die Waffennutzung künstlicher Intelligenz außer Kontrolle gerät.
PS: Wenn Sie verhindern wollen, dass aus harmlosen Fotos belastendes Material wird, hilft unser Gratis-Sicherheitspaket speziell für Android. Der Leitfaden erklärt, welche Einstellungen sofort greifen, wie Sie Mikrofon- und Kamera-Berechtigungen kontrollieren, welche Backup-Strategien Sie brauchen und wie Sie WhatsApp sicherer konfigurieren. Holen Sie sich den praxiserprobten Ratgeber per E‑Mail. Android-Sicherheitspaket jetzt gratis anfordern


