Live-Deepfakes, Videoanrufen

Live-Deepfakes in Videoanrufen erschüttern Smartphone-Sicherheit

01.02.2026 - 19:10:11

Kriminelle nutzen KI-generierte Videos und Stimmen in Echtzeit, um Mitarbeiter zu täuschen und Millionenschäden zu verursachen. Behörden warnen vor CEO-Fraud 2.0.

Kriminelle kapern Videokonferenzen auf Smartphones mit täuschend echten Live-Deepfakes. Behörden warnen vor einer neuen Welle von Betrugsangriffen, die gezielt auf Unternehmen abzielen und Millionenschäden verursachen. Die Technologie manipuliert Gesichter und Stimmen in Echtzeit und nutzt die alltägliche Nutzung von Videotelefonie für perfide Attacken.

CEO-Fraud 2.0: Der falsche Chef im Video-Call

Eine besonders heimtückische Masche ist der sogenannte „CEO-Fraud 2.0“. Hierbei klonen Betrüger das Aussehen und die Stimme von Vorgesetzten mithilfe von KI-Software. In einer gefälschten Videokonferenz – oft über gängige Apps auf dem Handy – geben sie dann dringende Überweisungsanweisungen an ahnungslose Mitarbeiter.

Anzeige

CEO‑Fraud und Deepfake‑Videocalls sind auf dem Vormarsch und treffen Unternehmen mit hohen Schäden. Ein kostenloses Anti‑Phishing‑Paket erklärt in vier klaren Schritten, wie Sie Mitarbeiter sensibilisieren, typische psychologische Fallen erkennen und technische Schutzmaßnahmen einführen – inklusive konkreter Checklisten für Video‑ und Telefon‑Authentifizierung. Schützen Sie Ihr Unternehmen proaktiv gegen CEO‑Fraud und ähnliche Angriffe. Jetzt Anti‑Phishing‑Paket in 4 Schritten herunterladen

Ein spektakulärer Fall aus Hongkong zeigt das Risiko: Ein Angestellter überwies umgerechnet 23 Millionen Euro, nachdem er in einem Deepfake-Videocall mit seinem angeblichen Finanzvorstand und Kollegen gesprochen hatte. Die Täter setzen auf psychologischen Druck und pochen auf absolute Dringlichkeit, um jede Überprüfung zu verhindern.

So funktioniert die Echtzeit-Täuschung

Für einen Live-Deepfake benötigen Angreifer oft nur wenige öffentliche Video- und Tonaufnahmen einer Person. Eine KI analysiert dieses Material und lernt, Mimik, Gestik und Stimme täuschend echt nachzuahmen. Die Technologie ist mittlerweile so fortgeschritten, dass diese Fälschungen live in Videogespräche eingespeist werden können.

  • Geringe Einstiegshürde: Öffentlich verfügbares Material aus Social Media oder Firmenwebsites reicht oft aus.
  • Skalierbare Angriffe: Die Tools sind einfacher verfügbar, was die Qualität und Menge der Attacken erhöht.

Behördenalarm: Selbst Minister wurden gefälscht

Sicherheitsbehörden wie das FBI schlagen Alarm. In Österreich versuchten Täter kürzlich, in einem Videochat den Innenminister zu imitieren, um zu Lösegeldzahlungen aufzurufen. Die Ermittler betonen: Staatliche Stellen fordern niemals per Videocall zu Geldtransfers auf.

Experten raten zu klaren Sicherheitsprozessen in Unternehmen:
* Bei unerwarteten Zahlungsanweisungen per Video: Gespräch abbrechen und die Person über einen bekannten, zweiten Kanal zurückrufen.
* Unvorhergesehene Kontrollfragen stellen, deren Antwort nur die echte Person wissen kann.

Woran Sie einen Live-Deepfake erkennen

Auch wenn die Fälschungen immer besser werden, verraten sich KI-generierte Videos oft durch kleine Fehler:

  • Unnatürliche Mimik: Zu seltenes Blinzeln, starrer Gesichtsausdruck oder nicht passende Emotionen.
  • Technische Artefakte: Unscharfe Ränder um die Person, seltsame Belichtung oder unrealistische Details wie Zähne oder Haare.
  • Auffällige Stimme: Monotones Sprechen, ungewöhnliche Betonungen oder falsche Hintergrundgeräusche.

Wettrüsten zwischen Betrug und Abwehr

Die Bedrohung durch Live-Deepfakes wird weiter zunehmen. Während Kriminelle ihre Technik verfeinern, entwickeln Sicherheitsfirmen Algorithmen zur automatischen Erkennung. Klar ist: Technischer Schutz allein reicht nicht aus. Die entscheidende Waffe wird die Sensibilisierung der Nutzer und feste Verifizierungs-Prozesse sein – die menschliche Firewall.

@ boerse-global.de