Visa, KI-gestützte

Visa warnt: 450 Prozent mehr KI-gestützte Betrugsversuche

28.11.2025 - 10:20:12

Die Zahlen der Payment-Riesen schlagen Alarm: Innerhalb von nur sechs Monaten explodierten Diskussionen über autonome KI-Betrugstools im Darknet um das Vierfache. Währenddessen melden südafrikanische Behörden einen 1.200-Prozent-Anstieg bei Deepfake-Angriffen – eine Entwicklung, die sich längst nicht mehr auf einzelne Regionen beschränkt.

Visa, Mastercard und Bankenverbände weltweit schlagen Alarm: Die bisherigen Sicherheitsmechanismen im Online-Banking geraten unter massiven Druck. Was die Finanzbranche diese Woche in einer Serie von Warnmeldungen offenlegte, markiert einen Wendepunkt im digitalen Wettrüsten zwischen Kriminellen und Geldinstituten.

Die beunruhigendsten Daten lieferte Visa in einem Bericht, der die Cybersecurity-Szene aufschreckte: Im Darknet ist das Interesse an sogenannten “AI Agent”-Werkzeugen regelrecht explodiert. Anders als primitive Bots, die stumpf einzelne Befehle ausführen, navigieren diese KI-Agenten eigenständig durch Websites, vergleichen Preise und – das macht sie so gefährlich – imitieren menschliches Verhalten präzise genug, um Sicherheitsprüfungen zu umgehen.

Anzeige

Passend zum Thema KI-Betrug und Banking-Sicherheit: Viele Android-Nutzer übersehen grundlegende Schutzmaßnahmen, die genau solche Angriffe verhindern können. Angesichts von Deepfakes, Voice-Cloning und autonomen KI-Agenten, die Konten angreifen, ist ein konkreter Schutzplan wichtig. Das kostenlose Sicherheitspaket erklärt die 5 wichtigsten Maßnahmen für Android mit leicht verständlichen Schritt-für-Schritt-Anleitungen, praktischen Checklisten und Tipps für sicheres Mobile-Banking und App-Nutzung. Jetzt kostenloses Android-Sicherheitspaket anfordern

“Kriminelle arbeiten nicht mehr als opportunistische Einzeltäter. Sie agieren wie Tech-Start-ups und bauen wiederverwendbare Infrastruktur auf”, erklärte Paul Fabara, Chief Risk Officer bei Visa. Die Payment Fraud Disruption-Einheit des Konzerns warnt vor einer “Industrialisierung” des Betrugs: Angriffe erreichen Dimensionen und eine Raffinesse, gegen die menschliche Teams chancenlos sind.

Doch die technische Bedrohung ist nur eine Seite der Medaille. Visa veröffentlichte parallel eine Studie mit alarmierendem Ergebnis: Nutzer, die KI-generierte Inhalte nicht von echten unterscheiden können, fallen neunmal häufiger auf Betrügereien herein. Je überzeugender gefälschte Online-Shops und Phishing-Nachrichten werden, desto wirkungsloser wird die “menschliche Firewall”.

1.200 Prozent: Deepfakes werden zur Massenwaffe

Während automatisierte Agenten die technische Infrastruktur attackieren, zielen Deepfakes auf Menschen ab. Das südafrikanische Banking Risk Information Centre (SABRIC) schlug diese Woche Alarm: Die Zahl der Deepfake-Betrugsfälle sei binnen Jahresfrist um 1.200 Prozent gestiegen.

Diese Entwicklung beschränkt sich nicht auf Südafrika. Weltweit nutzen Kriminelle Voice-Cloning und Videomanipulation, um biometrische Sicherheitssysteme auszuhebeln und Bankmitarbeiter zu täuschen. Die Bedrohung nahm solche Ausmaße an, dass US-Abgeordnete diese Woche den “AI Fraud Deterrence Act” ins Repräsentantenhaus einbrachten. Das Gesetz soll Straftatbestände aktualisieren und den gezielten Einsatz von KI zur Erstellung gefälschter Audio- und Videodateien explizit unter Strafe stellen – ein Eingeständnis, dass bestehende Gesetze mit der Technologie nicht mehr Schritt halten.

“Es geht um die Absicht – KI kann täuschen oder verteidigen”, kommentierten Cybersecurity-Experten den SABRIC-Bericht. Banken rüsten massiv mit eigenen KI-Gegenmaßnahmen auf und setzen dieselben generativen Technologien ein, um Anomalien in Stimm- und Videomustern zu erkennen, die dem menschlichen Auge entgehen würden.

Chief AI Officers und “NetBanking 2.0”

Die Finanzindustrie reagiert mit Umstrukturierungen auf höchster Führungsebene. Die Commonwealth Bank of Australia (CBA) ernannte diese Woche Ranil Boteju zum Chief AI Officer – eine neu geschaffene Position auf C-Level-Ebene. Der Schritt verdeutlicht einen Branchentrend: KI-Sicherheit ist keine IT-Angelegenheit mehr, sondern strategische Chefsache.

“Wir konzentrieren uns darauf, erstklassige Talente, Technologie und Partnerschaften zusammenzubringen, um unsere Strategie umzusetzen”, erklärte CBA-CEO Matt Comyn. Die zukünftige Sicherheitsarchitektur der Bank werde auf verantwortungsvoller KI-Nutzung basieren.

Parallel dazu stellte die National Payments Corporation of India (NPCI) “NetBanking 2.0” vor. Die überarbeitete Plattform integriert Echtzeit-KI und Machine Learning direkt in den Transaktionsablauf. Durch eine zentrale Settlement-Plattform mit Überblick über das gesamte Ökosystem sollen verdächtige Transaktionen blockiert werden, bevor sie ausgeführt werden – ein “Pre-Crime”-Ansatz, der zum neuen Standard wird.

Vertrauenslücke trotz hoher Sicherheitsstandards

Eine Mastercard-Umfrage von dieser Woche offenbart ein gefährliches Paradox: Während 80 Prozent der befragten Verbraucher sich sicher fühlen, ihre Daten online zu schützen, nennt fast die Hälfte (47 Prozent) Betrug als größte Frustration. Diese Diskrepanz deutet darauf hin, dass das Selbstvertrauen der Nutzer ihre tatsächliche Fähigkeit übersteigt, KI-generierte Betrugsversuche zu erkennen – eine gefährliche Selbstüberschätzung, die Kriminelle systematisch ausnutzen.

Branchenanalysten konstatieren einen Paradigmenwechsel: von einer “reaktiven” Sicherheitsära, in der Banken Kunden nach Betrugsfällen entschädigten, zu einer “proaktiven” Phase, in der KI Betrug in Echtzeit abfangen muss. Die schiere Menge automatisiert generierter Angriffe macht manuelle Prüfverfahren obsolet.

Defensive KI als Antwort auf schlaflose Angreifer

Für Anfang 2026 kündigt die Branche massive Investitionen in “defensive KI” an. Der Fintech-Anbieter Loanworks will im Februar 2026 ein KI-Tool zur automatischen Dokumentenprüfung launchen, das Identitätsdokumente verifiziert und Fälschungen erkennt, die eine visuelle Inspektion überstehen würden.

Gleichzeitig zeichnet sich verschärfte Regulierung ab. Der AI Fraud Deterrence Act dürfte weltweit der erste von vielen Gesetzesinitiativen sein, die nicht nur Betrug selbst, sondern bereits die Werkzeuge für KI-Betrug kriminalisieren. Für Bankkunden bedeutet die Zukunft wohl mehr “passive” Authentifizierung: KI analysiert im Hintergrund Verhalten, Gerät und Biometrie – statt auf Passwörter oder Einmal-PINs zu setzen, die KI-Agenten leicht abfangen können.

Die Botschaft der Bankbranche zum Jahresende 2025 lautet unmissverständlich: Gegen eine KI, die niemals schläft, hilft nur eine KI, die niemals blinzelt.

Anzeige

PS: Übrigens — wenn Banken mit KI gegen schlaflose Angreifer kämpfen, darf das Smartphone als Einfallstor nicht fehlen. Dieses Gratis-Paket zeigt praxisnahe Einstellungen, Update-Routinen, App-Berechtigungen und einfache Checks, die Ihr Android vor Phishing, Schadsoftware und Kontoübernahmen schützen. Ideal für alle, die Mobile-Banking, PayPal oder Shopping-Apps nutzen und sofort umsetzbare Schutzmaßnahmen wollen. Gratis-Ratgeber mit 5 Schutzmaßnahmen downloaden

@ boerse-global.de