GenAI-Phishing: Staatliche Akteure nutzen KI zunehmend
15.02.2026 - 06:43:12GenAI-gestützte Angriffe nehmen Fahrt auf, warnt Google-Bericht zur Münchner Sicherheitskonferenz. Staatlich unterstützte Akteure und Cyberkriminelle setzen generative KI ein, um Phishing, Wirtschaftsspionage und Malware deutlich zu beschleunigen. Für Unternehmen und Behörden in Deutschland bedeutet das neuen, grenzüberschreitenden Sicherheitsdruck.
GenAI verändert den Angriffszyklus
Die GTIG-Analyse zeigt: KI ist längst mehr als ein Schreibwerkzeug. Angreifer nutzen generative Modelle im gesamten Angriffszyklus: Von der Planung bis zur Ausführung helfen sie, Inhalte zu verfeinern, Ziele gezielt zu profilieren und Gegenmaßnahmen zu umgehen. Ein besonders gefährliches Muster ist das Rapport-Aufbau-Phishing, bei dem E-Mails so kontextbezogen und personalisiert sind, dass sie kaum noch als Betrug zu erkennen sind.
Mehr als nur E-Mails: KI als Allround-Werkzeug
Eine Malware-Familie namens HONESTCUE nutzt die Gemini-API, um Funktionen auszulagern und Erkennungssysteme zu umgehen. Andere Gruppen beschleunigen mit KI die Entwicklung eigener Angriffs-Werkzeuge. Ein Phishing-Kit namens COINBAIT gibt sich als große Kryptobörse aus; dessen Erstellung wurde vermutlich durch KI-Codegenerierung beschleunigt. Parallel warnen Sicherheitsbehörden vor KI-gestützten Telefonbetrügereien, bei denen Stimmen geklont werden, um Opfer am Telefon zu täuschen.
KI-gestützte Telefonbetrügereien und manipulierte Apps sind auf dem Vormarsch – besonders auf Smartphones. Wer sein Android-Gerät, WhatsApp, Online-Banking und Bezahl-Apps effektiv schützen möchte, findet in einem kostenlosen Sicherheitspaket fünf praxiserprobte Schutzmaßnahmen mit klaren Schritt-für-Schritt-Anleitungen. Die einfachen Einstellungen und Prüfroutinen helfen, gefälschte Anrufe, Phishing-Links und manipulierte Apps schneller zu erkennen und abzuwehren. Jetzt kostenloses Android-Sicherheits-Paket herunterladen
Neues Spannungsverhältnis: Modelle als Ziel
Eine alarmierende Erkenntnis betrifft die KI-Modelle selbst: Modell-Extraktionsangriffe, auch Distillation Attacks genannt, zielen darauf ab, proprietäre Logik und Fähigkeiten kommerzieller KI-Systeme zu kopieren. So könnten Angreifer eigene, leistungsfähige Modelle ohne die hohen Trainingskosten entwickeln. Google identifizierte und deaktivierte Konten von globalen Unternehmen und Forschern, die versuchten, die Funktionsweise von Gemini zu extrahieren.
Kontext: Europäischer Druck und deutsche Relevanz
Experten betonen, dass generative KI die Kosten von Cyberangriffen senkt, deren Geschwindigkeit erhöht und Erkennung erheblich erschwert. Sicherheitsbehörden wie das Bundesamt für Sicherheit in der Informationstechnik (BSI) und Europol hatten schon zuvor vor einem grundlegenden Wandel in der organisierten Kriminalität durch KI gewarnt. Die nun dokumentierten Fälle zeigen, dass diese Bedrohung real ist und sowohl die private Wirtschaft als auch staatliche Institutionen trifft.
Schutzmaßnahmen: Was Unternehmen jetzt tun sollten
Für Unternehmen und Privatnutzer gilt: Wachsamkeit erhöhen. KI-generierte Inhalte sollten stärker geprüft werden. Sicherheitslösungen müssen Verhaltensanalysen einbeziehen, und Multi-Faktor-Authentifizierung sollte Standard sein. Bei unerwarteten oder dringenden Anfragen – besonders bei finanziellen Transaktionen – ist eine Gegenprüfung über einen zweiten, verifizierten Kommunikationskanal sinnvoll. Die Zukunft der Cybersicherheit liegt in einem mehrschichtigen Ansatz aus Technologie, Prozessen und geschärftem menschlichem Bewusstsein.
@ boerse-global.de
Hol dir den Wissensvorsprung der Profis. Seit 2005 liefert der Börsenbrief trading-notes verlässliche Trading-Empfehlungen – dreimal die Woche, direkt in dein Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt anmelden.


