KI-Stimmen, WhatsApp

KI-Stimmen und WhatsApp: So trickst die neue Betrugswelle

08.02.2026 - 22:39:11

Sicherheitsbehörden warnen vor einer Zunahme von Betrugsmaschen, die mit geklonten Stimmen und psychologischem Druck arbeiten. Die Kombination aus Schockanrufen und WhatsApp-Tricks wird durch KI immer gefährlicher.

Betrüger nutzen geklonte Stimmen und psychologischen Druck, um über Telefon und WhatsApp Geld zu erbeuten. Sicherheitsbehörden in Deutschland und Österreich warnen vor einer Zunahme dieser perfiden Masche, die als „Polizei- und Medizintrick“ bekannt ist. Sie kombiniert Schockanrufe mit dem digitalen Enkeltrick – und wird durch Künstliche Intelligenz noch gefährlicher.

Der perfide Ablauf des „Polizei- und Medizintricks“

Die Masche funktioniert meist per Telefonanruf. Ein angeblicher Polizist oder Arzt behauptet, ein naher Angehöriger – oft das Kind oder Enkelkind – habe einen schweren Unfall verursacht. Nur eine sofortige Geldzahlung für Kaution oder Behandlungskosten könne eine Haftstrafe verhindern. Der Druck ist enorm, damit Opfer unüberlegt handeln.

Parallel dazu läuft der WhatsApp-Enkeltrick: Eine Nachricht von einer unbekannten Nummer meldet sich als Sohn oder Enkel. Das Handy sei neu, heißt es, und das Online-Banking funktioniere noch nicht. Kurz darauf folgt die Bitte, dringend Rechnungen zu begleichen.

Anzeige

Telefon- und Messenger-Betrug – vom WhatsApp-Enkeltrick bis zu geklonten Stimmen – wird immer raffinierter und setzt Opfer unter enormen psychologischen Druck. Das kostenlose Anti-Phishing-Paket erklärt in vier praxisnahen Schritten, wie Sie gefälschte Anrufe, CEO-Fraud und manipulative Nachrichten erkennen und welche Sofortmaßnahmen Sie ergreifen sollten, damit weder Familie noch Unternehmen zur Zielscheibe werden. Kostenloses Anti-Phishing-Paket herunterladen

Voice Cloning: Die gefährlichste Waffe der Betrüger

Die jüngste und alarmierende Entwicklung ist der Einsatz von KI-gestütztem Voice Cloning. Kriminelle brauchen nur wenige Sekunden Audiomaterial aus Social-Media-Videos, um eine Stimme täuschend echt zu imitieren. Opfer hören dann die vertraute, aber geklonte Stimme ihres „Angehörigen“, der weinend von einer Notlage berichtet.

Diese Audio-Deepfakes setzen emotional unter extremen Stress und machen es fast unmöglich, den Betrug zu erkennen. Deutsche Behörden warnen: Diese Technologie hebt die Cyberkriminalität auf ein neues Level.

So schützen Sie sich vor den neuen Maschen

Das Bundeskriminalamt und die Polizeiliche Kriminalprävention geben klare Verhaltensregeln. Die wichtigste: Lassen Sie sich niemals unter Druck setzen.

  • Rückruf unter bekannter Nummer: Überprüfen Sie jede Geschichte, indem Sie die Person unter der altbekannten Telefonnummer kontaktieren.
  • Persönliche Kontrollfragen stellen: Fragen Sie nach Details, die nur der echte Angehörige wissen kann.
  • Nie Geld überweisen: Die echte Polizei fordert niemals telefonisch Kaution. Gehen Sie auf keine Geldforderungen in Messengern oder überraschenden Anrufen ein.
  • Unbekannte Nummern blockieren: Speichern Sie verdächtige Kontakte nicht und blockieren Sie sie umgehend.
  • Anzeige erstatten: Wurden Sie betrogen, informieren Sie sofort Ihre Bank und erstatten Sie Strafanzeige bei der Polizei.

KI wird die Betrugswelle weiter anheizen

Experten sind sich einig: Der Einsatz von KI für personalisierte Betrugsnachrichten und Deepfakes wird zunehmen. Die Fälschungen werden immer schwerer zu erkennen. Umso wichtiger ist es, über die Gefahren zu sprechen – in der Familie und im Bekanntenkreis. Ein kritisches Hinterfragen bleibt der entscheidende Schutz gegen die raffinierteren Methoden der Kriminellen.

@ boerse-global.de