FBI, NCSC

FBI und NCSC schlagen Alarm: KI-Phishing erreicht neue Dimension

09.12.2025 - 00:20:12

Die Cyberkriminalität hat eine neue Eskalationsstufe erreicht. Während Verbraucher und Unternehmen sich auf das Weihnachtsgeschäft konzentrieren, warnen FBI und die britische Cyber-Sicherheitsbehörde NCSC vor einer Welle KI-gestützter Betrugsangriffe, die klassische Abwehrmechanismen systematisch unterlaufen.

Koordinierte Warnmeldungen mehrerer internationaler Sicherheitsbehörden zeigen: Die Zeit der holprig formulierten Spam-Mails ist vorbei. Kriminelle setzen heute auf künstliche Intelligenz, um hochkomplexe, mehrstufige Angriffe zu orchestrieren. Allein in den vergangenen 72 Stunden haben neue Datenveröffentlichungen das erschreckende Ausmaß von Identitätsdiebstahl und Deepfake-Betrug dokumentiert.

Das FBI hat einen fundamentalen Strategiewechsel der Cyberkriminellen identifiziert: sogenannte “Multichannel”-Attacken. Die Behörde warnt diese Woche eindringlich vor einer neuen Angriffstaktik, bei der KI-Systeme E-Mails, SMS und Telefonanrufe zu einer überzeugenden Betrugsgeschichte verweben.

Anders als bei klassischen Phishing-Mails, die isoliert auftreten, bauen diese orchestrierten Kampagnen schrittweise Vertrauen auf. Ein typischer Angriff beginnt mit einer personalisierten E-Mail über angebliche Lieferschwierigkeiten. Sekunden später folgt eine SMS-Bestätigung, schließlich meldet sich ein “Kundenservice”-Mitarbeiter mit KI-geklonter Stimme, um das “Problem zu lösen”.

Anzeige

Passend zum Thema Multichannel-Angriffe: Aktuelle Studien zeigen, dass Phishing, SMS‑Spoofing und Voice‑Deepfakes Unternehmen und Verbraucher massiv schaden. Unser kostenloses E‑Book “Cyber Security Awareness Trends” fasst die neuesten Bedrohungen (inkl. KI‑Regulierung) und sofort umsetzbare Schutzmaßnahmen zusammen – praxisorientiert und ohne große Budgets. Holen Sie sich Checklisten und Prioritätenlisten für Geschäftsführer, IT‑Verantwortliche und kleine Teams, die jetzt Lücken schließen müssen. Jetzt Cyber-Security-E-Book kostenlos herunterladen

“Die Betrüger nutzen neue KI-Technologien, um legitime Websites, Händler und Lieferdienste täuschend echt nachzubilden”, erklärte FBI-Spezialagent Jason Carley Anfang Dezember. Die Angriffe zielen gezielt auf die Hektik des Weihnachtsgeschäfts ab – in einigen Regionen verloren Opfer allein im letzten Quartal Millionen.

Identitätsdiebstahl explodiert: 35 Prozent mehr Fälle

Am gestrigen Montag veröffentlichte Debt.com alarmierende Zahlen: Identitätsdiebstahl ist innerhalb eines Jahres um 35 Prozent gestiegen. 90 Prozent der Befragten sehen KI-gesteuerten Betrug mittlerweile als Hauptbedrohung.

Diese Entwicklung deckt sich mit einem weltweiten Anstieg biometrischer Angriffe. Ein diese Woche diskutierter Bericht von Entrust zeigt: Jeder fünfte Angriff auf biometrische Verifikationssysteme nutzt bereits KI-Technologie. Kriminelle setzen vermehrt auf sogenannte “Injection-Attacken” – sie schleusen vorab aufgezeichnete oder KI-generierte Deepfakes direkt in Identitätsprüfungssysteme ein und umgehen so “Lebenderkennungs”-Checks.

Die Bedrohung ist global. Berichte aus Südafrika dokumentieren einen Anstieg von Deepfake-Betrug um über 200 Prozent. Die Werkzeuge für diese Angriffe sind demokratisiert und weltweit verfügbar geworden.

Das unlösbare Problem: NCSC warnt vor Prompt-Injection

Gestern veröffentlichte das britische NCSC eine ernüchternde Einschätzung zu Large Language Models – der Technologie hinter modernen KI-Chatbots. Die Behörde warnt: “Prompt Injection”-Angriffe, bei denen versteckte Befehle das Verhalten einer KI manipulieren, lassen sich möglicherweise nie vollständig verhindern.

In einem technischen Blogbeitrag vom 8. Dezember erklären NCSC-Experten das Grundproblem: Sprachmodelle können strukturell nicht zwischen “Befehlen” (Code) und “Daten” (Eingaben) unterscheiden. Für Unternehmen, die KI in E-Mail- und Kundenservice-Workflows integrieren, bedeutet das ein kritisches Risiko. Ein Angreifer könnte theoretisch unsichtbare Kommandos in eine E-Mail einbetten, die das firmeninterne KI-System anweisen, sensible Daten zu extrahieren oder betrügerische Transaktionen freizugeben.

Verteidigung rüstet auf: KI gegen KI

Doch die offensive Entwicklung bleibt nicht ohne Antwort. Am gestrigen Montag meldeten Forscher von Trend Micro die Entdeckung von “GhostPenguin” – einer hochentwickelten Linux-Backdoor, aufgespürt durch eine neue KI-gestützte Bedrohungsanalyse.

Die Entdeckung unterstreicht die wachsende Bedeutung defensiver KI-Systeme. Durch automatisierte Analyse Tausender Code-Samples identifizierte Trend Micros System die heimliche Malware, die zuvor allen Erkennungssystemen entgangen war. Diese “KI gegen KI”-Dynamik wird zum Standard in der Cybersicherheit – automatisierte Abwehrsysteme liefern sich ein Wettrennen mit automatisierten Angriffswerkzeugen.

Das Ende der “Rechtschreibfehler-Ära”

Die Entwicklungen Anfang Dezember 2025 markieren das endgültige Ende einer Ära, in der sich Betrugsversuche durch Tippfehler entlarven ließen.

“Die Social-Engineering-Wirtschaft boomt”, stellt Clyde Williamson vom Datenschutzunternehmen Protegrity gestern fest. KI-Tools beherrschen perfekte Grammatik, klonen Stimmen und erstellen in Sekunden täuschend echte Schnäppchen-Websites. Die technische Einstiegshürde für Betrüger ist kollabiert.

Für Unternehmen bedeutet das: Sicherheitsschulungen müssen sich von der visuellen Mustererkennung hin zur Prozessverifikation entwickeln. Der neuer Compliance-Standard heißt “Zero Trust” bei Kommunikationskanälen – jede Anfrage nach sensiblen Daten oder Überweisungen muss über einen sekundären, offline verifizierten Kanal bestätigt werden, egal wie legitim die digitale Anfrage erscheint.

Ausblick: Architektonischer Umbau nötig

Die Branche steht 2026 vor einer doppelten Herausforderung. Erstens macht die NCSC-Warnung deutlich: Software-Anbieter müssen KI-Architekturen grundlegend neu designen, statt auf einfache Sicherheits-Patches zu setzen. Zweitens wird die Demokratisierung von Deepfake-Technologie einen Abschied von simpler biometrischer Verifikation erzwingen – etwa dem simplen Selfie zur Identitätsprüfung. Hardware-gestützte Identitätsnachweise dürften zum Standard werden.

Für die verbleibenden Wochen im Dezember 2025 lautet die Botschaft jedoch unmissverständlich: Quelle verifizieren, vor jedem Klick innehalten und jede dringende Weihnachtsbenachrichtigung mit höchster Skepsis behandeln.

Anzeige

PS: Bleiben Sie nicht schutzlos gegen KI-gestützte Betrugswellen. Dieses kostenlose E‑Book erklärt kompakt, welche neuen KI-Gesetze und einfachen Abwehrmaßnahmen jetzt relevant sind und wie Sie sofort reagieren können – inklusive einer Prioritätenliste für schnelle Sicherheits-Checks im Alltag. Kostenlos, kompakt und praxisorientiert – ideal für Entscheidungsträger und IT-Teams. Gratis Cyber-Security-Guide herunterladen

@ boerse-global.de