KI-Klon-Stimmen, Smartphone-Nutzer

KI-Klon-Stimmen täuschen Smartphone-Nutzer

10.02.2026 - 01:23:12

Kriminelle nutzen KI, um Stimmen täuschend echt zu klonen und per Telefon zu betrügen. Sicherheitsbehörden warnen, während Tech-Unternehmen an Gegenmaßnahmen arbeiten.

Kriminelle nutzen KI, um Stimmen zu klonen und per Telefon zu betrügen. Diese sogenannten Deepfake-Anrufe verursachen bereits Schäden in Millionenhöhe. Sicherheitsbehörden wie das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnen eindringlich vor den täuschend echten Betrugsversuchen.

Für die täuschend echten Kopien benötigen Angreifer oft nur wenige Sekunden Audiomaterial. Dieses stammt häufig aus frei zugänglichen Quellen wie Social-Media-Posts oder Sprachnachrichten. Mit der geklonten Stimme inszenieren sie dann emotionale Notrufe – eine moderne, digital aufgerüstete Version des klassischen Enkeltricks.

So funktioniert der heimtückische Voice-Cloning-Betrug

Die Technologie hat sich rasant entwickelt. KI-Modelle imitieren Tonfall, Intonation und charakteristische Merkmale einer Stimme mit erschreckender Genauigkeit. Kriminelle füttern Software mit kurzen Stimmproben und lassen diese dann jeden beliebigen Text sprechen.

Die Audio-Deepfakes werden oft mit anderen Taktiken kombiniert. Ein Beispiel ist der „CEO-Fraud“: Betrüger rufen mit der geklonten Stimme eines Vorgesetzten an, um eine dringende Überweisung zu autorisieren. Die emotionale Bindung zur vermeintlich bekannten Stimme macht Opfer besonders verwundbar.

Anzeige

Passend zum Thema Telefonbetrug: CEO‑Fraud und Audio‑Deepfakes führen inzwischen zu erheblichen Schäden in Unternehmen und im privaten Bereich. Das kostenlose Anti‑Phishing‑Paket erklärt die psychologischen Tricks hinter solchen Angriffen, zeigt aktuelle Hacker‑Methoden und liefert sofort umsetzbare Maßnahmen, mit denen Sie verdächtige Anrufe erkennen und abwehren können. Enthalten sind Fallbeispiele und eine praktische Checkliste für den Notfall. Jetzt kostenlosen Anti-Phishing-Report herunterladen

Technologiekonzerne entwickeln KI-Gegenmittel

Auf die wachsende Bedrohung reagieren nun auch Tech-Unternehmen. Ein vielversprechender Ansatz sind KI-Assistenten direkt auf dem Smartphone. Sie können verdächtige Anrufe entgegennehmen und in Echtzeit analysieren, ob eine Stimme synthetisch klingt.

Der Vorteil: Bei dieser „On-Device-Verarbeitung“ verlassen die Gesprächsdaten das Telefon nicht. Das schützt die Privatsphäre und ermöglicht eine schnelle Warnung oder Blockade noch vor der Annahme des Anrufs.

So schützen Sie sich vor gefälschten Anrufen

Experten raten zu einem mehrschichtigen Vorgehen und erhöhter Wachsamkeit. Diese Verhaltensregeln helfen bei verdächtigen Anrufen:

  • Misstrauen bei Druck: Seien Sie skeptisch bei unerwarteten Anrufen mit emotionalem Druck und dringenden Geldforderungen.
  • Rückruf zur Verifizierung: Legen Sie auf und rufen Sie die Person unter der bekannten, gespeicherten Nummer zurück.
  • Persönliche Kontrollfragen stellen: Fragen Sie nach Details, die nur die echte Person kennen kann. KI-Systeme scheitern oft an spontanen, persönlichen Fragen.
  • Familien-Codewort vereinbaren: Ein geheimes Notsignal mit engsten Angehörigen bietet Sicherheit.

Präventiv sollten Nutzer ihren digitalen Fußabdruck minimieren und sparsam mit der Veröffentlichung von Sprach- oder Videomaterial umgehen. Regelmäßige Software-Updates für das Smartphone schließen zudem Sicherheitslücken.

Das technologische Wettrüsten zwischen Angreifern und Verteidigern steht erst am Anfang. Ein gesundes Misstrauen und die Fähigkeit, digitale Kommunikation kritisch zu hinterfragen, werden zur neuen Normalität.

Anzeige

PS: Wenn Sie verhindern möchten, dass gefälschte Stimmen und Social‑Engineering zu teuren Überweisungen führen, ist das Anti‑Phishing‑Paket eine praktische Hilfe. Der Gratis‑Download bietet eine 4‑Schritte‑Anleitung zur Abwehr von CEO‑Fraud, konkrete Checklisten für Mitarbeiterschulungen und branchenspezifische Schutzmaßnahmen – nützlich für Unternehmen und Privatpersonen. Gratis-Anti-Phishing-Paket jetzt sichern

@ boerse-global.de