Deepfakes: Wie KI-Betrug 2025 zur Hauptbedrohung wurde
03.12.2025 - 21:29:12Die Cybersicherheit erlebt eine radikale Wende: Kriminelle hacken nicht mehr Systeme – sie hacken Menschen. Innerhalb von nur 72 Stunden verdichten sich die Alarmsignale zu einem düsteren Bild der aktuellen Bedrohungslage.
Gleich mehrere Sicherheitsberichte, die diese Woche veröffentlicht wurden, dokumentieren eine beunruhigende Entwicklung: KI-gestützte Identitätsfälschungen haben sich zur dominierenden Angriffsmethode entwickelt. Die Zahlen sind eindeutig – und besorgniserregend.
Der heute veröffentlichte Bericht des Identitätsverifizierungs-Spezialisten Regula offenbart das ganze Ausmaß: In Branchen wie Banking, Luftfahrt und Gesundheitswesen wurde 2025 jede dritte Organisation Opfer biometrischer Betrugsversuche oder Deepfake-Attacken. Damit übertreffen diese modernen Angriffsmethoden erstmals die Zahl herkömmlicher Betrugsfälle.
“Die Ereignisse von 2025 machen eines deutlich: Identität ist zum neuen Perimeter der Cybersicherheit geworden”, heißt es in der Analyse. Die Studie untersuchte fünf große Cyber-Vorfälle des Jahres und zeigt einen fundamentalen Strategiewechsel der Angreifer.
Passend zum Thema Identitätsbetrug: Deepfakes und Social-Engineering richten sich heute gezielt gegen Menschen – nicht nur gegen Systeme. Wenn Studien zeigen, dass ein Großteil der Organisationen betroffen ist, brauchen IT-Verantwortliche praxisnahe Strategien für Awareness und KI‑Abwehr. Das kostenlose E‑Book “Cyber Security Awareness Trends” fasst aktuelle Bedrohungen, neue KI-Regeln und sofort umsetzbare Maßnahmen zusammen – ideal für CISOs und Sicherheitsverantwortliche. Lernen Sie, wie Sie mit Awareness-Programmen und technischen Maßnahmen Angriffe frühzeitig erkennen und verhindern. Jetzt Cyber-Security-Guide herunterladen
Was bedeutet das konkret? Statt sich mühsam durch Firewalls und Sicherheitssysteme zu kämpfen, geben sich Kriminelle einfach als vertrauenswürdige Personen aus – mit erschreckend guten Fälschungen.
58 Prozent mehr gefälschte Selfies
Ein separater Bericht von Entrust, der am 2. Dezember präsentiert wurde, liefert weitere alarmierende Details: Jeder fünfte biometrische Betrugsversuch nutzt mittlerweile KI-generierte Deepfakes. Besonders dramatisch: Die Zahl gefälschter Selfies stieg innerhalb eines Jahres um 58 Prozent.
Die Technik dahinter nennt sich “Injection Attack”. Betrüger umgehen dabei Live-Kameraaufnahmen, indem sie manipulierte Medien direkt in Verifizierungssysteme einspeisen. Diese Art von Angriffen nahm laut Entrust um 40 Prozent gegenüber dem Vorjahr zu.
Das Perfide daran: Die erforderlichen Werkzeuge sind längst professionalisiert und erfordern kaum noch technisches Fachwissen. Auf verschlüsselten Messaging-Plattformen werden Deepfake-Tools als “Crime-as-a-Service” verkauft – eine regelrechte Industrialisierung des Betrugs.
Wenn Beweise vor Gericht gefälscht werden
Die Bedrohung reicht weit über Finanzbetrug hinaus. Das Cybersecurity-Unternehmen Reality Defender kündigte heute eine strategische Partnerschaft mit Law & Forensics an, um Echtzeit-Deepfake-Erkennung in juristische Workflows zu integrieren.
“Raffinierte Deepfake-Angriffe bedrohen die Integrität von Verfahren und ermöglichen Betrug im gesamten Rechtssektor”, warnt Ben Colman, CEO von Reality Defender. Die Initiative reagiert auf Vorfälle, bei denen KI-Werkzeuge zur Fälschung von Beweismitteln oder zur Vortäuschung von Identitäten in hochsensiblen Verhandlungen eingesetzt wurden.
Können Richter und Anwälte künftig überhaupt noch zwischen echten und synthetischen Medien unterscheiden? Die neue Partnerschaft soll Rechtsexperten befähigen, Mandantenkommunikation und Zeugenaussagen sofort auf Authentizität zu prüfen – eine kritische Fähigkeit in einer Zeit, in der selbst Gerichte kämpfen müssen.
Google rüstet Android-Nutzer auf
Auf Verbraucherebene reagiert auch Tech-Gigant Google mit konkreten Maßnahmen. Das Unternehmen rollt heute seinen “In-Call-Schutz vor Betrug” für die meisten großen britischen Banken aus.
Das System nutzt gerätebasierte KI, um verdächtige Gesprächsmuster zu erkennen, die auf Social Engineering hindeuten. Fordert beispielsweise ein angeblicher Bankmitarbeiter zur Bildschirmfreigabe auf – eine gängige Masche zum Abgreifen von Zugangsdaten – löst das System automatisch eine Warnung aus.
“Betrüger entwickeln sich kontinuierlich weiter und nutzen immer raffiniertere Social-Engineering-Taktiken”, erklären die Google-Sicherheitsexperten Aden Haussmann und Sumeet Sharma. Eine integrierte “30-Sekunden-Pause” soll das falsche Dringlichkeitsgefühl durchbrechen, mit dem Social Engineers ihre Opfer manipulieren.
Von Google in Auftrag gegebene Umfragedaten zeigen bereits erste Erfolge: Android-Nutzer vermeldeten in der vergangenen Woche 58 Prozent häufiger, Betrugs-SMS erfolgreich vermieden zu haben – ein Effekt der sich entwickelnden KI-Abwehrmechanismen.
Katz-und-Maus-Spiel wird sich verschärfen
Eine am 1. Dezember veröffentlichte Gartner-Umfrage zeigt das Ausmaß: 62 Prozent der Organisationen erlebten in den vergangenen zwölf Monaten mindestens einen Deepfake-Angriff. Die Effektivität dieser Attacken liegt in ihrer Fähigkeit, menschliches Vertrauen statt technischer Schwachstellen auszunutzen.
“Betrugspräventionssysteme sind stärker denn je, aber Menschen bleiben das schwächste Glied”, konstatiert eine Analyse von KnowBe4. Der Grund: Während früher staatlich geförderte Gruppen solche Angriffe durchführten, können heute auch weniger versierte Akteure dank “Crime-as-a-Service”-Plattformen auf professionelle Tools zugreifen.
Was kommt 2026?
Ein Bericht von Storm Technology offenbart die Prioritäten für das kommende Jahr: 27 Prozent der IT-Führungskräfte nennen die Erkennung von Deepfake-Angriffen als zentrale Sorge für 2026.
Die Branche erwartet eine Abkehr von statischen biometrischen Prüfungen – wie einem simplen Selfie-Upload – hin zu “Liveness Detection” und multimodaler Verifikation. Diese kombiniert Verhaltensanalyse mit biometrischen Daten.
Die Botschaft dieser Woche ist unmissverständlich: Wer den Menschen am anderen Ende des Bildschirms nicht verifizieren kann, darf der Transaktion nicht trauen. Chief Information Security Officers (CISOs) werden verstärkt auf “Zero-Trust”-Prinzipien für Identitätsverifikation setzen müssen – jede digitale Interaktion muss auf Anzeichen synthetischer Manipulation untersucht werden.
Das Wettrüsten zwischen offensiver und defensiver KI dürfte sich 2026 weiter intensivieren. Klar ist: Die neue Perimeter-Verteidigung verläuft nicht mehr an Firewalls, sondern an der Authentizität menschlicher Identität.
PS: Sie möchten sich gegen Deepfakes, Phishing und Social-Engineering wappnen? Der Gratis-Report “Cyber Security Awareness Trends” zeigt, wie Unternehmen mit einfachen Mitteln Mitarbeiter sensibilisieren und KI‑Risiken minimieren können. Mit konkreten Checklisten, Praxisbeispielen und Hinweisen zu neuen KI-Regeln ist er ein schneller Einstieg für Entscheider. Der Leitfaden ist gratis und eignet sich besonders für mittelständische Unternehmen mit kleinem IT-Budget. Kostenloses Cyber-Security-E-Book anfordern


