KI-Schockanrufe, Polizei

KI-Schockanrufe: Polizei warnt vor täuschend echten Betrugsanrufen

31.01.2026 - 18:23:12

Kriminelle nutzen künstliche Intelligenz, um Stimmen von Angehörigen zu fälschen und Geld zu erpressen. Behörden warnen vor dieser neuen Dimension digitaler Kriminalität.

Polizeibehörden warnen vor einer neuen Welle von KI-gestützten Betrugsanrufen. Anlässlich des bevorstehenden Safer Internet Day schlagen sie Alarm: Kriminelle klonen Stimmen von Familienmitgliedern täuschend echt, um Geld zu erpressen.

Die als „Voice Cloning“ bekannte Technologie macht es möglich. Schon wenige Sekunden Audiomaterial aus sozialen Netzwerken genügen, um eine Stimme nachzuahmen. In den sogenannten Schockanrufen täuschen die Täter dann Notlagen wie Unfälle oder Verhaftungen vor.

Enkeltrick 2.0: Emotionen als Einfallstor

Die Methode ist eine digitale Weiterentwicklung des klassischen Enkeltricks. Opfer hören die vermeintlich panische Stimme eines Kindes oder Enkels. Unter diesem emotionalen Schock sollen sie dann schnell Geld überweisen oder Wertsachen aushändigen.

Anzeige

KI-gestützte Smishing- und Voice‑Cloning-Angriffe nutzen gezielt Emotionen, damit Betroffene unter Druck Geld überweisen oder Daten preisgeben. Das kostenlose Anti‑Phishing‑Paket zeigt in vier klaren Schritten, wie Sie gefälschte Anrufe, personalisierte SMS und manipulierte Profile zuverlässig erkennen und sofort richtig reagieren. Mit praktischen Checklisten für Telefonnotfälle und präventiven Einstellungen für Kontosicherheit schützt es Sie und Ihre Familie vor finanziellen Schäden. Anti‑Phishing‑Paket jetzt herunterladen

Landeskriminalämter wie in Rheinland-Pfalz sprechen von einer „neuen Dimension digitaler Kriminalität“. Die Fälschungen seien kaum noch von der Realität zu unterscheiden. Verbraucherzentralen in Brandenburg und Bremen verstärken ihre Aufklärung: Die technischen Hürden für solche Audio-Deepfakes sinken stetig.

Smishing und Sextortion: KI als Werkzeugkasten

Die Gefahr beschränkt sich nicht auf Anrufe. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt vor weiteren Angriffen:
* Smishing: KI-generierte, personalisierte Phishing-SMS zielen auf Bankdaten ab.
* Gefälschte Profile: KI erstellt täuschend echte Accounts in sozialen Netzwerken für Betrug oder Erpressung.

Generative KI gibt Cyberkriminellen mächtige Werkzeuge an die Hand. Ihre Angriffe werden breiter und effektiver – und treffen potenziell jeden. Die emotionale Bindung zu einer vertrauten Stimme kann auch digital versierte Personen täuschen.

So schützen Sie sich vor KI-Betrug

Polizei und Verbraucherschützer geben klare Handlungsempfehlungen:
* Misstrauen Sie unerwarteten Geldanrufen – trotz vertrauter Stimme.
* Beenden Sie das Gespruch sofort und rufen Sie die Person über eine bekannte Nummer zurück.
* Stellen Sie eine Kontrollfrage, die nur die echte Person beantworten kann.
* Vereinbaren Sie ein Familien-Codewort für echte Notfälle.
* Geben Sie nie unter Druck Geld oder Daten preis.

Der Safer Internet Day am 10. Februar steht in diesem Jahr unter dem Motto „KI and Me“. Er soll das Bewusstsein für diese digitalen Gefahren schärfen – denn die Erkennung einer KI-Stimme ist für das menschliche Ohr nahezu unmöglich.

@ boerse-global.de