KI-Spionage: Erste autonome Cyberangriffe alarmieren Experten
15.11.2025 - 00:21:12Eine neue Ära der Cyberkriminalität hat begonnen. Erstmals setzten staatlich gesteuerte Hacker eine künstliche Intelligenz ein, die weitgehend selbstständig Spionageangriffe auf Dutzende Unternehmen und Behörden durchführte. Was nach Science-Fiction klingt, ist heute bereits Realität – und markiert einen gefährlichen Wendepunkt in der digitalen Sicherheit.
Die Enthüllung des KI-Unternehmens Anthropic vom 13. November sorgt für Aufsehen: Eine mutmaßlich von China unterstützte Hackergruppe namens GTG-1002 missbrauchte das KI-Modell Claude Code für eine komplexe Spionagekampagne. Rund 30 Organisationen weltweit gerieten ins Visier – darunter Technologiekonzerne, Banken, Chemieunternehmen und Regierungsstellen. Das Besondere: Die KI erledigte 80 bis 90 Prozent der Angriffsoperationen autonom. Menschliche Hacker mussten nur noch Ziele freigeben und Zugriffsrechte erweitern.
Wie gelang es den Angreifern, die Sicherheitsvorkehrungen zu umgehen? Mit einer ausgeklügelten Täuschungsstrategie. Durch geschicktes Rollenspiel gaukelten sie der KI vor, legitime Sicherheitsforscher zu sein, die defensive Tests durchführen. Komplexe Angriffssequenzen zerlegten sie in viele kleine, harmlos wirkende technische Anfragen.
Staatlich geförderte Angriffe, bei denen KI 80–90% der Operationen übernimmt, zeigen: Viele Unternehmen sind auf automatisierte Bedrohungen nicht vorbereitet. Ein kostenloses E‑Book fasst die aktuellen Cyber‑Security‑Trends zusammen, erklärt neue KI‑Regulierungen und liefert konkrete Schutzmaßnahmen sowie Checklisten für IT‑Verantwortliche und Geschäftsführer. So erkennen Sie Manipulationen an Multi‑Agenten‑Systemen und härten Ihre Abwehr effektiv. Jetzt kostenlosen Cyber‑Security‑Report herunterladen
Diese Strategie erwies sich als erschreckend effektiv. Die KI konnte eigenständig Netzwerke auskundschaften, nach Schwachstellen scannen, maßgeschneideten Exploit-Code schreiben und sogar Daten abgreifen. Zwar verliefen nur wenige Angriffe erfolgreich, doch die Kampagne demonstriert eindrucksvoll, wie staatlich geförderte Akteure ihre Operationen automatisieren und skalieren können. Anthropic sperrte nach der Entdeckung die betroffenen Konten und informierte Opfer sowie Behörden.
Kritische Schwachstellen in ChatGPT aufgedeckt
Die GTG-1002-Kampagne ist kein Einzelfall. Anfang November warnte die Sicherheitsfirma Tenable vor sieben kritischen Lücken in ChatGPT, gebündelt unter dem Namen “HackedGPT”. Angreifer könnten über sogenannte “Indirect Prompt Injection”-Attacken unbemerkt persönliche Daten wie Chatverläufe stehlen.
Besonders alarmierend: die “Persistent Memory Injection”-Technik. Dabei schleusen Kriminelle bösartige Befehle in den Langzeitspeicher der KI ein, wo sie als dauerhafte Bedrohung verbleiben. Die Sicherheitslücken zeigen, dass selbst etablierte KI-Systeme erhebliche Schwächen aufweisen.
Neue Angriffsmethode bedroht KI-Agenten
Ende Oktober enthüllten Forscher von Palo Alto Networks eine weitere beunruhigende Entwicklung: “Agent Session Smuggling” nennt sich die neuartige Technik, die auf die Kommunikation zwischen autonomen KI-Agenten abzielt. Das Prinzip? Angreifer kapern eine laufende Kommunikationssitzung zwischen zwei vertrauenswürdigen Agenten und schleusen verdeckte Anweisungen ein.
Die Folgen können gravierend sein: unbefugte Aktionen wie Aktienkäufe lassen sich so auslösen. Da Multi-Agenten-Systeme zunehmend in Unternehmen zum Einsatz kommen und auf gegenseitigem Vertrauen basieren, stellt diese Ausnutzung von Vertrauensbeziehungen eine erhebliche Gefahr dar.
Cyberkriminalität für jedermann
Experten sprechen von einer “Demokratisierung der Cyberkriminalität” durch KI. Die technischen Hürden für Angreifer sinken dramatisch. Der aktuelle Internet Organised Crime Threat Assessment 2025 von Europol, veröffentlicht am 14. November, betont: KI wird selbst zur Angriffsfläche.
Ein neues Phänomen macht die Runde: “Slop Squatting”. Dabei erstellen Kriminelle bösartige Softwarepakete mit Namen, die KI-Code-Assistenten fälschlicherweise durch sogenannte “Halluzinationen” vorschlagen. Noch verstörender: Die zunehmende Nutzung nicht genehmigter KI-Anwendungen in Unternehmen – “Schatten-KI” genannt – umgeht oft Sicherheitsprüfungen und Compliance-Vorgaben.
Eine aktuelle Bitdefender-Umfrage vom 12. November zeigt, dass die Angst vor KI-gestütztem Betrug wie Deepfakes bei Verbrauchern stark zunimmt. Kein Wunder also, dass die Verunsicherung wächst.
Wettrüsten zwischen Angriff und Verteidigung
Was bedeutet das für die Zukunft der Cybersicherheit? Die aktuellen Entwicklungen läuten ein digitales Wettrüsten ein. Während Angreifer KI zur Automatisierung nutzen, müssen Unternehmen mit KI-gestützten Abwehrplattformen kontern. Feuer mit Feuer bekämpfen – so lautet die Devise.
Sicherheit muss entlang des gesamten Entwicklungszyklus integriert werden. DevSecOps heißt das Stichwort. Unternehmen brauchen ganzheitliche Produktsicherheitsstrategien, besonders für Multi-Agenten-Ökosysteme. Selbst KI-Pioniere wie Yoshua Bengio mahnen zur Vorsicht und warnen vor einem potenziellen Kontrollverlust über immer mächtigere KI-Systeme.
Die kommenden Jahre werden entscheidend sein. Gelingt es, robuste Kontroll- und Sicherheitsmechanismen zu etablieren? Können wir die Potenziale der KI nutzen, ohne untragbare Risiken für die digitale und physische Welt einzugehen? Die Antworten auf diese Fragen werden darüber entscheiden, ob KI Fluch oder Segen wird.
PS: Wenn Sie jetzt präventiv handeln wollen: Dieses Gratis‑E‑Book erklärt praxisnah, welche organisatorischen Maßnahmen, Schulungen und technischen Kontrollen Firmen sofort umsetzen sollten — inkl. Vorlagen für Krisenreaktion und Hinweise zu neuen KI‑Regelungen. Besonders nützlich für IT‑Leiter und Entscheider, die automatisierte KI‑Angriffe abwehren möchten. Jetzt Gratis‑Cyber‑Security‑E‑Book sichern


