KI-Betrüger, Deepfakes

KI-Betrüger nutzen Deepfakes von Heidi Klum als Lockmittel

28.12.2025 - 16:51:13

Eine neue Welle technisch ausgefeilter Betrugsangriffe rollt über Smartphone-Nutzer hinweg. Kriminelle setzen dabei täuschend echte KI-Videos von Prominenten wie Heidi Klum ein, um Opfer in finanzielle Fallen zu locken. Sicherheitsbehörden und Verbraucherschützer melden über die Weihnachtsfeiertage einen massiven Anstieg der Fälle.

Die Angriffe infiltrieren zunehmend Messenger-Dienste und Social-Media-Feeds direkt auf dem Smartphone. Nutzer sehen dort Video-Clips, in denen eine KI-generierte Version von Heidi Klum vermeintliche Geheimtipps zum schnellen Reichtum gibt oder für exklusive Shopping-Plattformen wirbt. Die Links führen zu betrügerischen Handelsplattformen für Kryptowährungen oder Fake-Shops, die zwar Geld kassieren, aber keine Ware liefern.

Laut einer Analyse des IT-Portals Chip rangiert Heidi Klum aktuell in den “Top 10” der für Betrug missbrauchten Prominenten in Deutschland. Die Deepfakes sind mittlerweile von so hoher Qualität, dass sie auf dem Smartphone-Display kaum noch von echten Aufnahmen zu unterscheiden sind.

Experten von Check Point Software Technologies wiesen bereits Mitte Dezember darauf hin, dass die Betrugsgefahr durch KI ein neues Niveau erreicht hat. Kriminelle erstellen mittlerweile ganze Online-Shops mithilfe von KI-Baukästen – inklusive falscher Kundenbewertungen und automatisierter Chatbots, die Zweifel der Opfer zerstreuen sollen.

Anzeige

Passend zum Thema Smartphone-Betrug: Holen Sie sich das kostenlose Sicherheitspaket mit den 5 wichtigsten Schutzmaßnahmen für Android. Der Praxis-Guide erklärt Schritt für Schritt, wie Sie WhatsApp, Online-Shopping, PayPal und Mobile-Banking sicher einrichten, welche Einstellungen Angriffe verhindern und welche Checklisten sofort Schutz bringen. Ideal, wenn Sie Links und gefälschte Nachrichten künftig sicher erkennen wollen. Gratis-Sicherheitspaket für Android herunterladen

Neue Tricks: “Akustische PIN-Löschung” und gefälschte Anrufe

  • Dabei suggerieren Betrüger am Telefon, eine unberechtigte Zahlung sei gestoppt worden.
  • Zur Sicherheit müsse nun die PIN “gelöscht” werden.
  • Technisch versierte Täter nutzen KI-Stimmverzerrer und manipulieren die angezeigte Rufnummer, sodass tatsächlich die Nummer der Hausbank oder der Polizei erscheint.

Ein besonders aggressiver Fall wurde an Heiligabend im Raum Bad Neuenahr-Ahrweiler gemeldet, wo sich Kriminelle als Bankmitarbeiter ausgaben, um EC-Karten direkt an der Haustür abzugreifen.

Warum die Bedrohungslage gerade jetzt eskaliert

Die Verfügbarkeit leistungsfähiger KI-Modelle für jedermann hat die Einstiegshürden für komplexe Betrugsmaschen drastisch gesenkt. Während früher aufwendige Videobearbeitung nötig war, können Betrüger heute mit wenigen Klicks überzeugende Deepfakes erstellen.

Dass ausgerechnet Heidi Klum im Fokus steht, führen Beobachter auch auf ihre hohe mediale Präsenz in diesem Jahr zurück. Kriminelle orientieren sich an der aktuellen Aufmerksamkeit: Wer in den Medien präsen t ist, generiert Klicks – und damit potenzielle Opfer. Der durchschnittliche Schaden liegt mittlerweile bei rund 700 Euro pro Fall.

Was können Nutzer tun?

Die wichtigste Verteidigungslinie bleibt die menschliche Aufmerksamkeit. Technische Schutzmaßnahmen hinken der Entwicklung der Betrugs-KI oft hinterher.

Wenn Heidi Klum plötzlich Finanztipps gibt oder die Bank am Feiertag anruft, um eine PIN zu “löschen”, ist Skepsis die einzig richtige Reaktion. Verbraucherschützer raten: Niemals auf Links in verdächtigen Nachrichten klicken und sensible Daten wie PINs oder TANs niemals am Telefon preisgeben.

Anzeige

PS: Schutz gegen Deepfakes, Phishing und gefälschte Anrufe lässt sich umsetzen – mit einfachen, praxisnahen Maßnahmen. Der Gratis-Report zeigt konkrete Einstellungen, empfohlene Prüf-Tools und eine Checkliste für Notfälle. Besonders hilfreich: ein kurzer Kontroll-Plan, den Sie sofort anwenden können, um Ihr Android-Gerät sicherer zu machen. Jetzt kostenloses Android-Sicherheitspaket anfordern

@ boerse-global.de