KI-Betrug, Phishing-Mails

KI-Betrug: 82,6 Prozent aller Phishing-Mails nutzen Künstliche Intelligenz

14.11.2025 - 19:50:12

Eine neue Ära der Cyberkriminalität hat begonnen – und die Zahlen sind alarmierend. Fast 83 Prozent aller Phishing-Mails setzen mittlerweile auf KI-Sprachmodelle, ein Anstieg um mehr als die Hälfte innerhalb eines Jahres. Die Erfolgsquote dieser Angriffe liegt bei erschreckenden 60 Prozent, wobei mehr als die Hälfte der Empfänger auf schädliche Links klickt. Zum Vergleich: Traditionelle Phishing-Kampagnen erreichen nicht einmal ein Viertel dieser Rate.

Pünktlich zur internationalen Woche gegen Betrugskriminalität (16. bis 22. November) schlagen Sicherheitsexperten und Behörden weltweit Alarm. Die Bedrohung reicht von täuschend echten Deepfake-Videos prominenter Persönlichkeiten über geklonte Stimmen bis hin zu massiven Angriffen auf Unternehmens-E-Mails. Künstliche Intelligenz senkt die Einstiegshürde für Kriminelle dramatisch – perfekt formulierte Nachrichten, vertraute Stimmen und gefälschte Videointerviews machen es selbst Fachleuten schwer, Betrug von Realität zu unterscheiden.

Die wohl beunruhigendste Entwicklung: Cyberkriminelle benötigen lediglich drei Sekunden Audiomaterial, um eine überzeugende Kopie einer Stimme zu erstellen. Die Quelle? Oft Social-Media-Profile, auf denen Menschen arglos Videos und Sprachnachrichten teilen. Diese Technologie kommt vor allem bei „Familien-Notfall”-Betrugsmaschen zum Einsatz. Opfer erhalten verzweifelte Anrufe von jemandem, der exakt wie ein Angehöriger klingt und dringend Geld fordert.

Anzeige

KI-gestützte Phishing‑Angriffe sind effizienter denn je — in manchen Fällen klicken Opfer binnen Sekunden. Ein kostenloses Anti‑Phishing‑Paket erklärt in einer klaren 4‑Schritte‑Anleitung, wie Sie gefälschte E‑Mails, CEO‑Fraud, Deepfake‑Anrufe und manipulative Social‑Engineering‑Techniken erkennen und sofort reagieren. Der Download enthält Checklisten, Identifikationsmerkmale, konkrete Sofortmaßnahmen und Praxisbeispiele für Privatpersonen sowie Mitarbeiter. Sofort anwendbare Tipps helfen, Schaden zu begrenzen. Gratis Anti‑Phishing‑Paket herunterladen

Doch es bleibt nicht bei Audio-Fälschungen. Die irische Zentralbank warnte am 10. November vor einer Welle von Betrugsmaschen mit KI-generierten Videos bekannter Persönlichkeiten, die angeblich dubiose Investmentplattformen bewerben. Noch raffinierter gehen Advanced-Persistent-Threat-Gruppen vor: Die nordkoreanische Hacker-Einheit Chollima nutzt Echtzeit-Deepfakes für synthetische Vorstellungsgespräche, um sich Zugang zu Kryptowährungs- und Web3-Unternehmen zu verschaffen.

Ein aktueller Bericht von McAfee zeigt das Ausmaß: 90 Prozent der Menschen in Indien sind bereits mit gefälschten KI-Werbeauftritten von Prominenten in Kontakt gekommen – mit erheblichen finanziellen Verlusten als Folge.

Cyberkriminalität für Jedermann: KI senkt die Hemmschwelle

Die weite Verbreitung zugänglicher KI-Tools demokratisiert das Verbrechen. Selbst Angreifer ohne technische Tiefenkenntnisse können heute hochkomplexe Kampagnen starten. Generative KI-Plattformen erstellen makellose Phishing-Nachrichten, die konkrete Projekte, Kollegennamen und firmeninterne Begriffe enthalten – selbst Sicherheitsexperten stolpern über diese Fallen.

Die südafrikanische TymeBank gab diese Woche eine landesweite Warnung vor „KI-gesteuertem Social Engineering” heraus. Betrüger nutzen KI-generierte Inhalte, um über gefälschte Stellenanzeigen Geldkuriere zu rekrutieren und Kunden zur Preisgabe ihrer Bankdaten zu manipulieren.

Parallel entdeckten Sicherheitsforscher von Check Point am 13. November eine massive Phishing-Kampagne, die Facebooks eigene Business Suite missbraucht. Die Angreifer versenden offiziell aussehende Benachrichtigungen von der legitimen Domain „facebookmail.com” – eine Taktik, die viele Sicherheitsfilter umgeht und das Vertrauen der Nutzer in die Plattform ausnutzt.

Der Mensch bleibt die Schwachstelle

Trotz aller technischen Raffinesse zielen diese Angriffe letztlich auf menschliche Psychologie ab. „Betrugsprävention bedeutet nicht nur, schädliche Links zu erkennen – es geht darum, Verhaltensweisen neu zu programmieren”, betont Thomas Fikentscher von CyberArk. Phishing-Angriffe bleiben die Hauptursache für Betrug, weil sie menschliche Instinkte ausnutzen. Und keine Technologie kann einen Moment fehlgeleiteten Vertrauens vollständig kompensieren.

Die schiere Glaubwürdigkeit KI-generierter Inhalte untergräbt jene gesunde Skepsis, die Nutzer einst schützte. Googles Trust & Safety-Team berichtete kürzlich von einer Flut gefälschter Angebote, die „kostenlosen Zugang” zu populären KI-Diensten versprechen – nur um Opfer zum Download von Schadsoftware oder Credential-Stealing-Apps zu verleiten. Die wachsende Begeisterung der Öffentlichkeit für KI wird so selbst zur Angriffsfläche.

Paradigmenwechsel: Traditionelle Abwehr versagt

Der Aufstieg KI-gestützter Betrugsmethoden markiert einen fundamentalen Wandel. Signaturbasierte Erkennungstools und regelbasierte E-Mail-Filter versagen regelmäßig gegen KI-generierte Inhalte. Diese sind einzigartig und weisen nicht die typischen Warnsignale älterer Phishing-Versuche auf – etwa Rechtschreibfehler oder holprige Formulierungen.

Ein neues Wettrüsten hat begonnen: defensive KI gegen kriminelle KI. „Intelligente Bedrohungen erfordern ebenso intelligente Abwehrmechanismen”, erklärt Patrick Harding von Ping Identity. Doch es klafft eine erhebliche Kompetenzlücke: Über die Hälfte aller Chief Information Security Officers berichten, ihre Teams verfügten nicht über die nötige Expertise zur Abwehr KI-gestützter Angriffe.

Für Privatpersonen lautet die dringende Empfehlung: Misstrauen Sie unaufgeforderten Nachrichten grundsätzlich. Überprüfen Sie dringende Geld- oder Informationsanforderungen unabhängig – selbst wenn sie scheinbar von vertrauten Quellen stammen. Sicherheitsexperten raten zudem, mit Familienmitgliedern ein „Codewort” zu vereinbaren, um Identitäten bei verdächtigen Notfallanrufen zu bestätigen.

Ausblick: Die Bedrohung wächst exponentiell

Die Entwicklung deutet auf eine noch anspruchsvollere Zukunft hin. Mit fortschreitender Leistungsfähigkeit und Verfügbarkeit von KI-Modellen verschwimmt die Grenze zwischen authentischen und synthetischen Inhalten weiter. Experten rechnen mit dem Aufkommen „agentischer KI”, die autonom komplette Betrugskampagnen orchestrieren und in Echtzeit auf Opferreaktionen reagieren kann. Multikanal-Angriffe, die personalisierte E-Mails, Deepfake-Videoanrufe und Sprachnachrichten kombinieren, könnten ein überwältigendes Täuschungsszenario schaffen.

Die Cybersicherheitsbranche beschleunigt ihrerseits die Entwicklung KI-gestützter Verteidigungssysteme, die subtile Anomalien in Kommunikationsmustern erkennen und synthetische Medien identifizieren können. Auch Regulierungsbehörden werden aktiv: Das geplante britische Cyber Security and Resilience Bill soll strengere Meldepflichten und Sicherheitsanforderungen für Betreiber kritischer Dienste durchsetzen.

Letztlich erfordert der Kampf gegen KI-gestützte Betrugsmethoden ein konzertiertes Zusammenspiel: technologische Innovation, regulatorische Aufsicht und vor allem eine tiefgreifende, kontinuierliche Aufklärung der Öffentlichkeit. Denn nur eine neue Ebene digitaler Wachsamkeit kann in dieser veränderten Bedrohungslandschaft Schutz bieten.

Anzeige

PS: Schützen Sie sich proaktiv gegen synthetische Angriffe — dieses kompakte Anti‑Phishing‑Paket liefert eine Schritt‑für‑Schritt‑Roadmap, um Mitarbeiter zu sensibilisieren, CEO‑Fraud zu unterbinden und verdächtige Medien zu prüfen. Ideal für kleine Firmen, IT‑Verantwortliche und verantwortungsbewusste Nutzer, inklusive Checklisten und Vorlagen für Schulungen. Jetzt kostenlosen Anti‑Phishing‑Guide anfordern

@ boerse-global.de