KI-gestützte, Cyberangriffe

KI-gestützte Cyberangriffe nehmen gezielt Personalabteilungen ins Visier

20.01.2026 - 22:10:12

Das Allianz Risk Barometer 2026 stuft Cyberrisiken als größte Unternehmensgefahr ein. KI-gestützte Angriffe auf Personalabteilungen nehmen zu und nutzen gefälschte Stimmen und personalisierte Nachrichten.

KI-generierte Phishing-Kampagnen und Audio-Deepfakes stellen HR-Abteilungen vor existenzielle Bedrohungen. Der Allianz Risk Barometer 2026 stuft Cyberrisiken erneut als größte Gefahr für Unternehmen ein.

Eine neue Welle hoch entwickelter Cyberangriffe zielt gezielt auf Personalabteilungen ab und bedroht sensible Daten und die finanzielle Stabilität von Unternehmen. Angreifer nutzen künstliche Intelligenz, um täuschend echte Phishing-Nachrichten und sogar gefälschte Stimmen von Führungskräften zu erzeugen. Diese Entwicklung fällt mit dem Allianz Risk Barometer 2026 zusammen, das Cybervorfälle erneut als Top-Geschäftsrisiko weltweit identifiziert. Risiken im Zusammenhang mit KI sind dabei die am schnellsten wachsende Bedrohung – sie stiegen von Platz 10 auf Platz 2.

Die neue Anatomie der KI-Bedrohung

Die Angriffe sind raffinierter denn je. Statt offensichtlicher Spam-Mails mit Grammatikfehlern nutzen Kriminelle KI-Modelle wie FraudGPT, um sprachlich perfekte und kontextuell angepasste Nachrichten zu verfassen. Diese Systeme imitieren den Schreibstil von Vorgesetzten und verwenden branchenspezifische Terminologie korrekt. Die Personalisierung erfolgt automatisiert: Öffentliche Daten von Unternehmenswebseiten oder LinkedIn werden ausgewertet, um auf aktuelle Projekte oder interne Zuständigkeiten Bezug zu nehmen. Die KI passt ihre Angriffe dynamisch an – scheitert ein Versuch, wird die nächste Nachricht noch überzeugender formuliert.

Anzeige

KI-gestützte Phishing- und Vishing-Angriffe (inkl. CEO‑Fraud und Audio‑Deepfakes) treffen zunehmend HR‑Abteilungen und verursachen hohe Schäden. Das kostenlose Anti‑Phishing‑Paket zeigt in vier klaren Schritten, wie Sie Mitarbeiter sensibilisieren, Phishing‑Mails und gefälschte Stimmen erkennen und CEO‑Fraud wirksam abwehren — speziell für Personalverantwortliche. Enthalten sind Praxis‑Checklisten, Deepfake‑Erkennungs‑Szenarien und sofort umsetzbare Abwehrmaßnahmen für Technik und Prozesse. Anti‑Phishing‑Paket jetzt kostenlos herunterladen

Warum HR-Abteilungen im Fadenkreuz stehen

Personalabteilungen sind aus mehreren Gründen ein primäres Ziel. Sie verwalten einen Schatz sensibler Daten: Persönliche Informationen, Gehaltslisten, Bankverbindungen und Sozialversicherungsnummern. Ein erfolgreicher Angriff kann zu massivem Datendiebstahl, Identitätsdiebstahl oder manipulierten Gehaltszahlungen führen. Zudem sind HR-Mitarbeiter als vertrauenswürdige interne Ansprechpartner etabliert. Sie bearbeiten regelmäßig dringende Anfragen, was sie anfällig für Social-Engineering macht. Angreifer konstruieren Szenarien, die auf diesem Vertrauen basieren – etwa die angebliche, kurzfristige Aktualisierung von Bankdaten.

CEO-Betrug 2.0: Die gefälschte Stimme des Chefs

Die alarmierendste Entwicklung ist die Kombination aus KI-E-Mails und Audio-Deepfakes. Beim sogenannten Voice-Phishing (Vishing) wird die Stimme einer Führungskraft geklont. Dazu reichen oft wenige Sekunden Audiomaterial aus öffentlichen Interviews. Ein typisches Szenario: Eine perfekt formulierte E-Mail des angeblichen CEOs kündigt eine dringende Transaktion an. Zur Bestätigung folgt eine Sprachnachricht mit der täuschend echten, KI-generierten Stimme des Chefs. Dieser psychologische Druck hebelt etablierte Sicherheitsprozesse häufig aus und führt zu hohen finanziellen Verlusten.

KI-Risiken: Der schnellste Aufsteiger im Allianz Barometer

Der enorme Sprung der KI-Risiken im Allianz Risk Barometer von Platz 10 auf Platz 2 zeigt: Die Bedrohung wird nun als operative, rechtliche und reputationsbezogene Gefahr erster Güte wahrgenommen. Experten warnen, dass die Implementierung von KI in Unternehmen oft schneller voranschreitet, als Governance und Regulierung mithalten können. Die Angriffe markieren eine strategische Wende: Statt technische Systeme attackieren Kriminelle zunehmend die Identität der Nutzer und die menschliche Wahrnehmung. Traditionelle Spam-Filter, die auf bekannte Muster setzen, werden wirkungslos.

Abwehr erfordert KI und geschulte Mitarbeiter

Sicherheitsexperten prognostizieren eine weitere Zunahme und Industrialisierung dieser Angriffe. Im Darknet könnten Phishing-as-a-Service-Plattformen KI-Tools integrieren, was auch technisch weniger versierten Kriminellen Zugang verschafft. Die Abwehr erfordert einen mehrschichtigen Ansatz:
* Technisch: Investitionen in KI-gestützte Sicherheitslösungen, die in Echtzeit Verhaltensanomalien erkennen.
* Organisatorisch: Verschärfte Prozesse, insbesondere das Vier-Augen-Prinzip bei außerordentlichen Anfragen zu sensiblen Daten oder Zahlungen.
* Menschlich: Regelmäßige, realitätsnahe Schulungen für Mitarbeiter, speziell zur Erkennung von KI-generiertem Social Engineering und Deepfakes. Die Stärkung dieser „menschlichen Firewall“ – besonders in Schlüsselabteilungen wie HR – bleibt die entscheidende Verteidigungslinie.

@ boerse-global.de