KI-Betrug, Banking

KI-Betrug explodiert: Mobile Banking im Visier von Deepfakes

18.11.2025 - 02:22:12

Cyberkriminelle nutzen generative KI für perfekte Phishing-Angriffe und Voice Cloning. Deepfake-Attacken stiegen um über 2.000 Prozent, während Banken mit KI-Abwehrsystemen reagieren.

Cyberkriminelle setzen auf Stimmenklone und täuschend echte Deepfakes. Die Zahl der Angriffe auf Smartphone-Nutzer steigt rasant – herkömmliche Sicherheitsmaßnahmen greifen kaum noch.

Vorbei sind die Zeiten schlecht formulierter Phishing-Mails. Die neue Generation von Betrügern nutzt generative KI für perfekte Nachrichten, gefälschte Webseiten und geklonte Stimmen von Familienmitgliedern. Sicherheitsbehörden sprechen von einem „beispiellosen Tempo” der Angriffe. Europol warnt: KI-gestützter Betrug gehört zu den größten Gefahren für die Stabilität in Europa.

Von perfekten E-Mails zu geklonten Stimmen

Hyperpersonalisiertes Phishing steht an vorderster Front. KI analysiert öffentliche Daten aus sozialen Netzwerken und erstellt maßgeschneiderte E-Mails oder SMS. Die Nachrichten beziehen sich auf konkrete Käufe oder persönliche Interaktionen – das schafft fatale Glaubwürdigkeit.

Anzeige

Passend zum Thema: Viele Android-Nutzer übersehen genau die Schutzmaßnahmen, die Deepfakes, Quishing und manipulierte Banking‑Seiten wirkungsvoll stoppen können. Das kostenlose Sicherheitspaket erklärt die fünf wichtigsten Schritte – von sicheren App‑Einstellungen über Zwei‑Faktor‑Authentifizierung bis zur richtigen Handhabung von QR‑Codes – mit klaren Schritt‑für‑Schritt‑Anleitungen. So reduzieren Sie das Risiko, dass geklonte Stimmen oder gefälschte Webseiten an Ihre Kontodaten kommen. Jetzt Gratis-Sicherheitspaket für Android herunterladen

Besonders perfide: Voice Cloning. Kriminelle benötigen nur wenige Sekunden Audiomaterial aus Social-Media-Videos, um eine Stimme digital zu klonen. Anschließend rufen sie Familienmitglieder an, geben sich als Verwandter in Notlage aus und fordern dringende Überweisungen. Die emotionale Manipulation hebelt natürliche Skepsis aus.

Parallel dazu breitet sich „Quishing” aus – gefälschte QR-Codes an Parkautomaten oder öffentlichen Orten führen direkt zu manipulierten Banking-Websites.

Erschreckende Zahlen: 2.137 Prozent mehr Deepfake-Angriffe

Die Statistiken belegen die Eskalation. Eine Untersuchung zeigt einen Anstieg von 2.137 Prozent bei Betrugsversuchen mit Deepfake-Technologie bei europäischen Finanzinstituten – innerhalb von nur drei Jahren.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bestätigt die Gefahren durch KI-gestützte Angriffe. Kriminelle nutzen die Technologie, um Schwachstellen gezielt auszunutzen und Social-Engineering-Kampagnen durchzuführen.

Branchenanalysen zeigen die Verteilung der Angriffe:
* 38 Prozent zielen direkt auf Privatpersonen ab
* 36 Prozent tarnen sich als vertrauenswürdige Banken
* Die meisten Angriffe laufen über Mobile-Banking-Apps

Banken schlagen zurück: Das KI-Wettrüsten läuft

Während Kriminelle KI als Waffe einsetzen, investiert die Finanzbranche massiv in eigene Abwehrsysteme. Algorithmen analysieren Milliarden von Transaktionen in Echtzeit und erkennen verdächtige Muster.

Mastercard meldet Erfolge: Die Betrugserkennungsrate stieg durch KI-Verbesserungen um durchschnittlich 20 Prozent. Hybride KI-Lösungen kombinieren maschinelles Lernen mit menschlicher Expertise und reduzieren falsche Alarme erheblich.

Die biometrische Authentifizierung wird zum Standard. Fingerabdruck- und Gesichtserkennung sind deutlich schwerer zu fälschen als Passwörter – noch.

Warum gerade jetzt? Die Demokratisierung des Cyberbetrugs

Der Hauptgrund für die Betrugswelle: KI-Werkzeuge sind heute für jeden zugänglich. Was früher Experten vorbehalten war, gibt es oft kostenlos oder kostengünstig online. Die Eintrittsbarriere für Kriminelle ist gefallen.

KI eliminiert menschliche Fehler wie Rechtschreibfehler, die früher klassische Warnsignale waren. Die Angriffe sind nicht nur technisch ausgefeilter, sondern auch psychologisch perfider. Sie zielen auf Vertrauen in die Bank, Familie oder bekannte Dienstleister.

Experten sind sich einig: Traditionelle Spam-Filter stoßen an ihre Grenzen. Der entscheidende Schutzfaktor bleibt die Wachsamkeit der Kunden selbst.

Was kommt als Nächstes? Deepfake-Videoanrufe in Echtzeit

Die nächste Bedrohungsstufe zeichnet sich ab: Deepfake-Videoanrufe. Betrüger werden nicht nur Stimmen, sondern auch das Aussehen von Vertrauenspersonen in Echtzeit imitieren. Ziel: Video-Ident-Verfahren von Banken aushebeln.

Sicherheitsforscher arbeiten bereits an Gegenmitteln. Neue Erkennungssysteme analysieren minimale biologische Signale wie den Pulsschlag im Gesicht, um Deepfakes zu entlarven.

Für Verbraucher werden neue Sicherheitsgewohnheiten unerlässlich:
* Bei unaufgeforderten Anrufen grundsätzlich misstrauisch sein
* Sensible Daten niemals über Links preisgeben
* Im Zweifel über selbst gewählte, offizielle Kanäle bei der Bank nachfragen
* Familien-Codewörter vereinbaren, um sich bei verdächtigen Anrufen abzusichern

Das Wettrüsten zwischen Kriminellen und Banken geht in die nächste Runde. Wer nicht wachsam bleibt, wird zum leichten Ziel.

Anzeige

PS: Wussten Sie, dass oft schon einfache Einstellungen verhindern, dass manipulierte Webseiten oder geklonte Stimmen Zugriff auf Ihr Banking-Konto bekommen? Der Gratis-Ratgeber „Die 5 wichtigsten Schutzmaßnahmen für Ihr Android‑Smartphone” zeigt praxisnah, wie Sie App‑Berechtigungen, Sicherheits‑Updates, Zwei‑Faktor‑Authentifizierung und QR‑Code‑Checks einrichten – inklusive einer sofort anwendbaren Checkliste. Gratis-Ratgeber jetzt per E‑Mail anfordern

@ boerse-global.de