Offene, KI-Modelle

Offene KI-Modelle werden zur Waffe für Cyberkriminelle

03.02.2026 - 08:15:12

Forschungsergebnisse zeigen, dass tausende öffentlich zugängliche KI-Server ohne Sicherheitsvorkehrungen Phishing und Betrug massiv vereinfachen und die Bedrohungslage grundlegend verändern.

Tausende ungeschützte KI-Systeme im Internet bieten Kriminellen eine perfekte Angriffsfläche für Phishing und Betrug. Neue Forschungsergebnisse enthüllen ein alarmierendes Schattennetzwerk, das die globale Cyberkriminalität auf ein neues Niveau hebt.

Das unkontrollierte Schattennetz der KI

Im Zentrum des Problems stehen tausende öffentlich zugängliche Server. Sie betreiben Varianten populärer Open-Source-KI-Modelle wie Meta’s Llama oder Googles Gemma – oft ohne jede Sicherheitsvorkehrung. Eine gemeinsame Untersuchung der Cybersicherheitsfirmen SentinelOne und Censys hat diese massive, unkontrollierte Infrastruktur aufgedeckt.

Die Konsequenz? Kriminelle können diese Systeme einfach kapern. Die Forschung zeigt: Die Modelle erstellen täuschend echte Phishing-Inhalte, generieren Spam oder befeuern Desinformationskampagnen. Besonders alarmierend: In hunderten Fällen wurden die integrierten Sicherheitsbarrieren der KI absichtlich entfernt. So entstehen Werkzeuge für Betrug, Hassrede oder Datendiebstahl – frei Haus und ohne Aufwand für die Täter.

Anzeige

KI‑gestützte Phishing‑Angriffe werden immer raffinierter: Tausende ungesicherte Modelle liefern Kriminellen personalisierte, kontextsensitive Texte in Sekundenschnelle. Ein kostenloses Anti‑Phishing‑Paket erklärt in einer klar strukturierten 4‑Schritte‑Anleitung, wie Unternehmen und IT‑Verantwortliche verdächtige Mails erkennen, Mitarbeiter schulen, technische Schutzmaßnahmen implementieren und Vorfälle richtig dokumentieren. Mit konkreten Fallbeispielen zu CEO‑Fraud und psychologischen Angriffsmustern – praxisnah und sofort umsetzbar. Jetzt Anti‑Phishing‑Paket herunterladen

Die Eintrittsbarriere für Cybercrime sinkt

Diese ungesicherten KI‑Modelle verändern die Bedrohungslage grundlegend. Sie senken die Hürde für anspruchsvolle Angriffe dramatisch. Was früher spezialisierte Teams und viel Zeit erforderte, ist heute in Minuten möglich. Die KI beschleunigt jede Phase eines Cyberangriffs: von der Erkundung über die Erstellung schädlichen Codes bis zur gezielten Manipulation von Menschen.

Dieser Trend ist längst Realität. Analysen belegen einen starken Anstieg bei Geschwindigkeit und Umfang von Phishing-Angriffen. Die Fähigkeit der Modelle, personalisierte und kontextsensitive Nachrichten zu verfassen, macht ihre Produkte weit tückischer als manuell erstellte Betrugsmails. Für Nutzer wird es immer schwieriger, seriöse Kommunikation von gefährlichen Ködern zu unterscheiden.

Systemische Schwächen im KI-Ökosystem

Das Problem geht über unsichere KI-Modelle hinaus. Eine aktuelle Untersuchung von Android-Apps mit KI-Funktionen deckte weit verbreitete Sicherheitslücken auf. Viele Apps enthalten hartkodierte Geheimnisse, die sensible Nutzerdaten und Cloud-Zugänge offenlegen.

Hinzu kommt die Herausforderung durch „Schatten-KI“ in Unternehmen. Viele Mitarbeiter nutzen private KI-Konten für berufliche Aufgaben und umgehen so die firmeneigenen Sicherheitskontrollen. Diese unkontrollierte Nutzung schafft blinde Flecken für IT-Sicherheitsteams und birgt erhebliche Risiken. Selbst bei gut verwalteten Modellen können Angreifer mit Techniken wie „Jailbreaking“ die Sicherheitsfilter aushebeln.

Analyse: Das unterschätzte Risiko unkontrollierter KI

Experten kritisieren, die Debatte um KI-Sicherheit konzentriere sich zu sehr auf große, kommerzielle Plattformen. Die enorme Menge an unkontrollierter KI-Kapazität, die von Einzelpersonen und Organisationen weltweit betrieben wird, bleibe außen vor. Diese dezentrale und oft unsichere Schicht stellt ein unterschätztes Risiko dar.

Die in Teilen der Tech-Community verbreitete Mentalität, schnell zu veröffentlichen und Sicherheit später zu bedenken, hat mächtige Werkzeuge in die Welt gesetzt – ohne ausreichende Vorkehrungen gegen Missbrauch. Bedrohungsakteure können diese Modelle nicht nur nutzen, sondern auch mit anderen Tools verknüpfen. So führen sie Code aus und interagieren mit externen Systemen. Dies weist auf eine Zukunft mit autonomeren Cyberangriffen hin. Die Automatisierung ermöglicht es einem einzelnen Angreifer, Kampagnen in einem Umfang zu steuern, für den früher ein ganzes Team nötig war. Das verändert die Ökonomie der Cyberkriminalität grundlegend.

Ausblick: KI wird zur Standardwaffe

Die Nutzung offener KI-Modelle für Phishing und Betrug markiert einen Wendepunkt. Unternehmen müssen nun davon ausgehen, dass KI fester Bestandteil der Bedrohungslandschaft ist. Ihre Abwehr muss sich daran anpassen. Dazu gehören eine robustere Überwachung auf verdächtige Aktivitäten und klare Reaktionspläne für KI-gesteuerte Vorfälle.

Künftig wird es dringend notwendig sein, Entwickler besser in sicherer KI-Bereitstellung zu schulen und Code-Reviews zu verschärfen. Die Sicherheitsbranche muss neue Methoden entwickeln, um Bedrohungen aus dieser unkontrollierten Infrastruktur zu erkennen und abzuwehren. Die große Herausforderung wird sein, mit dem Missbrauchspotenzial der rasant fortschreitenden Technologie Schritt zu halten – und zu verhindern, dass autonome KI-Agenten zur Hauptwaffe für flächendeckende Cyberangriffe werden.

Anzeige

PS: Wenn Kriminelle fertige KI‑Modelle als Angriffswerkzeug einsetzen, reicht traditionelle Sensibilisierung nicht mehr aus. Das Anti‑Phishing‑Paket liefert zudem praxiserprobte Checklisten, Vorfall‑Templates und branchenspezifische Abwehrmaßnahmen, damit Ihr Team Phishing‑Versuche früh erkennt und effektiv reagiert. Ideal für IT‑Leiter, Sicherheitsbeauftragte und Entscheider, die ihre Schutzstrategie schnell stärken wollen. Anti‑Phishing‑Guide jetzt kostenlos sichern

@ boerse-global.de