WhatsApp-Alarm: KI-Stimmen revolutionieren den Enkeltrick
26.12.2025 - 04:52:12Kriminelle nutzen generative KI, um Stimmen von Angehörigen täuschend echt zu imitieren und fordern über WhatsApp Geld. Sicherheitsexperten geben konkrete Verhaltensregeln zum Schutz.
KI-Betrüger nutzen Weihnachten für perfide Anrufe mit gefälschten Stimmen. Sicherheitsbehörden warnen vor einer neuen Welle des sogenannten Enkeltricks 2.0. Die Täter imitieren Stimmen von Angehörigen täuschend echt – und schlagen bevorzugt über WhatsApp zu.
Es ist der Albtraum vieler Familien: Eine vertraute, panische Stimme bittet am Telefon oder per Sprachnachricht um sofortige Hilfe. Was früher oft an schlechter Qualität auffiel, ist heute kaum noch von der Realität zu unterscheiden. Cyberkriminelle nutzen generative KI, um mit nur wenigen Sekunden Original-Audio täuschende Stimmklone zu erstellen.
Die emotionale Erreichbarkeit ist an Weihnachten besonders hoch. Täter nutzen gezielt die besinnliche Zeit, in der Anrufe von Verwandten erwartet werden. Wenn dann eine Sprachnachricht des vermeintlichen Enkels eintrifft, setzt bei vielen Opfern das rationale Denken aus.
Gefälschte Stimmen über WhatsApp sind das neue Einfallstor für Betrüger — und viele Smartphones sind noch nicht ausreichend geschützt. Unser kostenloses Sicherheitspaket erklärt die 5 wichtigsten Schutzmaßnahmen für Android-Nutzer: Wie Sie WhatsApp, Online-Banking und Zahlungs-Apps richtig absichern, verdächtige Audios erkennen und ungewolltes Daten-Sammeln stoppen. Mit praktischen Schritt-für-Schritt-Anleitungen, Checklisten und Tipp 3, der eine häufig unterschätzte Lücke schließt. Gratis per E-Mail-Download. Jetzt kostenlosen Android-Schutz-Report sichern
Die Masche ist perfide: Eine weinerliche KI-Stimme berichtet von einem Unfall oder einer Verhaftung. Ein angeblicher Polizist oder Anwalt übernimmt und fordert eine schnelle Überweisung, oft in Kryptowährung. Die KI kann dabei sogar Dialekte und individuelle Sprechmuster imitieren.
So schützen Sie sich vor den Audio-Fälschungen
Gegen die täuschend echten KI-Stimmen hilft das Gehör nicht mehr. Experten raten daher zu klaren Verhaltensregeln:
- Familien-Codewort vereinbaren: Ein nur intern bekanntes “Safe-Word” enttarnt jeden Betrüger sofort.
- Immer zurückrufen: Beenden Sie den verdächtigen Anruf und kontaktieren Sie die Person unter der altbekannten Nummer.
- Zeitdruck ignorieren: Echte Behörden fordern niemals Bargeld an der Haustür oder Überweisungen via WhatsApp.
- Privatsphäre checken: Schränken Sie die Sichtbarkeit Ihrer Social-Media-Videos ein. Betrüger sammeln dort Audio-Material.
Der klassische Enkeltrick hat sich mit KI-Technologie gefährlich weiterentwickelt. Bis Messenger mögliche Warnhinweise für KI-Inhalte einführen, bleibt wachsame Skepsis der beste Schutz – besonders an den verbleibenden Feiertagen.


