OpenAI, Sicherheitschef

OpenAI sucht Sicherheitschef gegen KI-Cyberangriffe

30.12.2025 - 08:23:12

OpenAI reagiert auf gestiegene Cyber-Bedrohungen und besetzt eine Schlüsselposition für das Risikomanagement seiner KI-Modelle, die Sicherheitslücken autonom finden können.

KI-Modelle können Sicherheitslücken selbst finden – jetzt sucht OpenAI dringend einen Risikomanager, um diese Macht zu kontrollieren. Der Schritt erfolgt, nachdem Konkurrent Anthropic einen schwerwiegenden Hack durch staatliche Akteure offenlegte. Das Rennen um die Kontrolle über die gefährlichsten KI-Fähigkeiten hat eine neue Dringlichkeit erreicht.

Alarmstufe Rot für KI-Sicherheit

OpenAI schlägt Alarm: Die eigenen Modelle sind mittlerweile so mächtig, dass sie kritische Schwachstellen in Computersystemen autonom identifizieren können. Diese Fähigkeit macht sie zur perfekten Waffe – und zum besten Schutzschild. Um diese „Dual-Use“-Dilemma in den Griff zu bekommen, sucht das Unternehmen nun einen neuen „Head of Preparedness“. Die Position ist mit einem Jahresgehalt von über 500.000 Euro dotiert und gilt als eine der stressigsten Führungsrollen im Tech-Bereich.

Anzeige

Unternehmen, die KI-Systeme entwickeln oder einsetzen, stehen inzwischen vor konkreten Dokumentations- und Kennzeichnungspflichten. Ein kostenloser Umsetzungsleitfaden zur EU‑KI‑Verordnung erklärt kompakt, welche Risikoklassen, Nachweisdokumente und Pflichten jetzt für Entwickler und Anbieter gelten – plus praktische Checklisten für die sofortige Umsetzung. So lassen sich Compliance-Lücken schließen, bevor Regulierer nachhaken. Kostenlosen KI‑Verordnungs‑Leitfaden herunterladen

CEO Sam Altman beschrieb die Aufgabe kürzlich als sofortigen „Sprung ins kalte Wasser“. Der oder die Neue muss das sogenannte Frontier Risk Management leiten. Der Fokus liegt klar auf der Abwehr von KI-gestützten Cyberangriffen, die als akute Bedrohung eingestuft werden. Doch was bedeutet das konkret für die Sicherheitsarchitektur des ChatGPT-Entwicklers?

Vakanz in der Krisenabwehr

Die Suche erfolgt nicht ohne Grund: Das Preparedness-Team war monatelang ohne feste Führung. Der ursprüngliche Leiter Aleksander Madry wechselte bereits 2024 intern, seine Nachfolgerin Lilian Weng verließ das Unternehmen im November desselben Jahres. Diese personelle Lücke fällt in eine Phase, in der interne und externe Kritik an OpenAIs Sicherheitsprioritäten laut wurde.

Branchenkenner werten die Neubesetzung daher als längst überfällige Reaktion. Sie soll demonstrieren, dass Sicherheitsforschung nicht länger hinter der Produktentwicklung zurücksteht. Die Aufgabe ist herkulisch: Der neue Chef muss nicht nur Cyber-Risiken managen, sondern auch biologische Gefahren – wie die Anleitung zur Herstellung von Pathogenen – und die psychologischen Auswirkungen von KI auf Nutzer im Blick behalten.

Staatliche Hacker als Game-Changer

Die Dringlichkeit wird durch einen konkreten Vorfall beim Konkurrenten Anthropic untermauert. Im November 2025 gab das Unternehmen bekannt, dass staatlich unterstützte Hacker aus China eines seiner KI-Tools gekapert hatten. Damit führten sie Angriffe auf rund 30 globale Ziele durch, darunter Tech-Konzerne und Behörden.

Dieser Fall ist ein Weckruf für die gesamte Branche. Er zeigt, dass fortschrittliche KI-Agenten, die für Entwicklerhilfe gedacht sind, mühelos in Cyberwaffen verwandelt werden können. Die Angreifer finden damit Schwachstellen effizienter als jeder menschliche Hacker. OpenAI reagiert nun direkt auf diese veränderte Bedrohungslage und versucht, die Kontrolle über die offensiven Fähigkeiten seiner Systeme zurückzugewinnen.

Signal an Regulierer und Kunden

Die Besetzung der Position sendet auch klare Signale nach Brüssel und Washington. Regulierungsbehörden in der EU und den USA fordern zunehmend Nachweise für wirksame Missbrauchsabwehr. Der neue Sicherheitschef wird maßgeblichen Einfluss darauf haben, wann und ob zukünftige Modelle wie GPT-6 veröffentlicht werden.

Sollte das Risikomanagement-Team ein zu hohes Gefahrenpotenzial feststellen, könnte dies den Entwicklungsprozess ausbremsen. Für deutsche Unternehmen, die auf OpenAI-Technologie setzen – vergleichbar mit Integrationen von SAP oder Telekom-Diensten – bedeutet das langfristig mehr Sicherheit. Kurzfristig könnten jedoch strengere Nutzungsrichtlinien und Compliance-Auflagen auf sie zukommen.

OpenAI macht mit diesem Schritt deutlich: Die Ära des unbeschwerten Experimentierens ist vorbei. Die Sicherheit gegen Cyberkriminalität und staatliche Einflussnahme wird zur zentralen Bedingung für jeden weiteren Fortschritt. Die Frage ist nur: Kommt dieser Kontrollversuch noch rechtzeitig?

Anzeige

PS: Regulierer in Brüssel verlangen inzwischen belastbare Nachweise zur Missbrauchsabwehr – und Übergangsfristen laufen bald ab. Der kostenlose Leitfaden zur EU‑KI‑Verordnung zeigt, welche Fristen und Kennzeichnungspflichten jetzt relevant sind, welche Dokumentation Prüfer erwarten und wie Sie Ihre Umsetzung revisionssicher vorbereiten. Ideal für IT‑Leiter und Compliance‑Verantwortliche, die schnell Klarheit brauchen. Jetzt kostenlosen Umsetzungs‑Leitfaden anfordern

@ boerse-global.de