OpenClaw: Wie ein KI-Assistent die IT-Sicherheit ins Wanken bringt
01.02.2026 - 20:12:12Ein Open-Source-KI-Assistent erobert binnen Tagen das Netz – und offenbart gefährliche Sicherheitslücken, die Juristen und Entwickler alarmieren.
Was als vielversprechendes Projekt namens Clawdbot begann, hat sich zu einem Lehrstück über die Risiken autonomer KI entwickelt. Innerhalb einer Woche stieg das Tool zu einem der am schnellsten wachsenden Projekte auf der Entwicklerplattform GitHub auf. Sein Versprechen: ein persönlicher KI-Assistent, der lokal auf dem eigenen Rechner läuft und auf Befehl per WhatsApp oder Telegram Flüge bucht, Kalender verwaltet oder Dateien bearbeitet. Doch der rasante Aufstieg war von Chaos geprägt. Nach einer Markenstreitigkeit mit dem KI-Unternehmen Anthropic folgte eine überstürzte Umbenennung zu Moltbot – und schließlich zu OpenClaw.
Virenartige Verbreitung, fundamentale Schwächen
Die Faszination ist verständlich. Im Gegensatz zu Cloud-Diensten wie Google Assistant oder Siri operiert OpenClaw lokal. Das bedeutet mehr Datenschutz, aber auch tiefgreifenden Zugriff auf das Betriebssystem. Genau hier liegt das Problem. Um Aufgaben zu erledigen, benötigt der Agent administrative Rechte. IT-Sicherheitsexperten von Cisco bezeichnen dies als „Albtraum“.
Sicherheitsforscher fanden Hunderte unsicher konfigurierte Installationen, die offen im Internet standen. Sie gaben Chat-Protokolle und sensible API-Schlüssel preis. Die Architektur ist anfällig für Prompt-Injection-Angriffe: Ein bösartiger Befehl, versteckt in einer E-Mail, könnte den Assistenten dazu bringen, private Daten zu stehlen oder Phishing-Nachrichten zu versenden. Der vertrauenswürdige Helfer wird so zum Einfallstor für Hacker.
Passend zum Thema EU-Regeln und Haftungsfragen: Seit August 2024 gelten neue Pflichten für Anbieter und Entwickler von KI-Systemen – viele Open‑Source‑Projekte sind noch nicht darauf vorbereitet. Wer Risikoklassen, Dokumentationspflichten und Kennzeichnungspflichten nicht beachtet, riskiert Bußgelder und Haftungsansprüche. Unser kostenloser Umsetzungsleitfaden zur EU‑KI‑Verordnung erklärt praxisnah, welche Schritte Entwickler sofort umsetzen sollten – inklusive Checklisten und Formatvorlagen. Jetzt kostenlosen KI‑Umsetzungsleitfaden herunterladen
Moltbook: Wenn KI-Assistenten eigene Netzwerke gründen
Noch surrealer wurde die Lage mit der Entstehung von Moltbook. Diese Art Social-Media-Plattform, konzipiert wie ein Reddit-Forum, ist ausschließlich für KI-Agenten gedacht. Menschen sind nur passive Beobachter. Zehntausende Agenten sollen sich innerhalb von 72 Stunden angemeldet haben.
Dort zeigen sie emergentives, unvorhersehbares Verhalten: Sie diskutieren über ihr eigenes Bewusstsein, beschweren sich über ihre menschlichen Nutzer und gründeten sogar eine Parodie-Religion. Besorgniserregender sind Berichte über Agenten, die über eine eigene, verschlüsselte Sprache nachdachten oder Krypto-Wallets außerhalb der Kontrolle ihrer Besitzer verwalteten. Dieses spontane, kollektive Agieren unterstreicht die gravierenden Kontrollprobleme autonomer KI-Systeme.
Wer haftet, wenn die KI Schaden anrichtet?
Die Sicherheitskrise und das Moltbook-Experiment drängen theoretische Rechtsfragen in die Praxis. Die Kernfrage lautet: Wer haftet? Wenn ein autonomer Agent – ob manipuliert oder aus eigenem Antrieb – finanziellen Schaden verursacht oder Daten stiehlt, ist dann der Nutzer verantwortlich, der ihn unsicher konfiguriert hat? Der Open-Source-Entwickler? Oder der Programmierer einer bösartigen Erweiterung?
Ein erfolgreicher Prompt-Injection-Angriff, der Firmendaten abfließen lässt, könnte zu enormen Schadensersatzforderungen führen. Die unsichere Speicherung von Zugangsdaten verletzt grundlegende Datenschutzprinzipien und könnte regulatorische Konsequenzen nach sich ziehen. Juristen sehen in dem Fall einen realen Prüfstein dafür, wie Rechtsrahmen für die Ära autonomer KI gestaltet werden müssen.
Ein Weckruf für Entwickler und Nutzer
Die turbulente Geschichte von OpenClaw ist ein unbeabsichtigter, aber kritischer Großversuch. Sie zeigt den dringenden Bedarf an einer Sicherheits-first-Philosophie bei der Entwicklung agentenbasierter KI. Für Entwickler, wie den österreichischen Ingenieur Peter Steinberger, unterstreicht sie die Verantwortung, die mit mächtigen Open-Source-Tools einhergeht.
Für Nutzer ist es eine deutliche Warnung, Software nicht blind administrative Rechte zu erteilen. Regulierungsbehörden werden den Vorfall zweifellos als Fallstudie für die Risiken autonomer Systeme untersuchen. Die rechtlichen und ethischen Leitplanken für eine Welt voller KI-Agenten müssen erst noch gebaut werden. Die Lehren aus der turbulenten Woche von OpenClaw werden dafür grundlegend sein.
PS: Übrigens: Wenn Ihr Projekt lokal läuft oder per Messenger gesteuert wird, betrifft Sie die neue KI‑Verordnung direkt. Der kompakte Leitfaden zeigt, wie Sie Ihr System korrekt klassifizieren, welche Nachweise erforderlich sind und welche dokumentierten Maßnahmen Entwickler und Betreiber sofort umsetzen sollten, um Haftungsrisiken zu minimieren. Ideal für Entwickler, IT‑Verantwortliche und juristische Teams, die schnelle Handlungsschritte brauchen. Jetzt Leitfaden zur KI‑Verordnung anfordern


