KI-Betrüger nutzen Deepfakes zum Abgreifen von Rentenkonten
24.12.2025 - 00:09:12Bundesbehörden und Wertpapieraufsichten warnen ältere Anleger vor einer neuen Welle hochrealistiver KI-Betrugsmaschen. Die Schäden gehen in die Milliarden.
Die Stimme eines bekannten Politikers am Telefon, ein Video von Elon Musk mit persönlicher Gratulation – was nach einem Glücksfall klingt, entpuppt sich immer häufiger als raffinierter Betrug. US-Bundesbehörden und staatliche Aufseher haben diese Woche eine synchronisierte Serie dringender Warnungen veröffentlicht. Sie zielen auf eine neue Generation künstlich intelligenter Betrugsangriffe ab, die gezielt das Ersparte älterer Menschen ins Visier nehmen. Ein neuer Hinweis des FBI-Büros in Dallas unterstreicht, wie Cyberkriminelle täuschend echte Deepfakes von Regierungsbeamten und Finanzprominenten nutzen, um Rentenkonten zu plündern.
In einer heute veröffentlichten Erklärung schlägt das FBI Alarm: Betrügernetzwerke setzen fortschrittliche Voice-Cloning-Technologie ein, um täuschend echte Sprachnachrichten und SMS zu verschicken, die von vertrauenswürdigen Amtsträgern zu stammen scheinen. „Der Betrug beginnt mit einem freundlichen Text zum schnellen Vertrauensaufbau, dann wechseln die Täter zu verschlüsselten Apps oder Links, die Login-Daten abgreifen sollen“, heißt es in der Warnung.
Diese Masche läuft seit Monaten, hat aber in der Feiertagssaison deutlich an Fahrt aufgenommen. Oft werden gezielt Familienmitglieder und enge Kontakte älterer Anleger angesprochen, die unaufgeforderte Regierungskommunikation möglicherweise weniger skeptisch hinterfragen. Diese Warnung deckt sich mit Daten von Tom’s Guide, die „Vishing“ (Voice Phishing) als eine der am stärksten eskalierenden Bedrohungen des Jahres identifizieren. Demnach sind Vishing-Angriffe 2025 um 442 Prozent im Jahresvergleich gestiegen. Das Volumen an Deepfake-Dateien soll auf 8 Millionen ansteigen – ein gewaltiger Sprung von nur 500.000 im Jahr 2023.
Gefälschte Stimmen, CEO‑Fraud und Vishing führen aktuell zu dramatisch steigenden Verlusten – besonders bei älteren Anlegern und ihren Angehörigen. Ein kostenloses Anti‑Phishing‑Paket erklärt in klaren Schritten die psychologischen Tricks hinter diesen Angriffen und liefert eine praxiserprobte 4‑Schritte-Anleitung, mit der Sie verdächtige Anrufe, Nachrichten und gefälschte Identitäten sofort erkennen und abwehren können. Sofort anwendbare Checklisten helfen, Familien zu schützen. Jetzt Anti-Phishing-Paket herunterladen
Staatliche Aufseher listen die größten Gefahren auf
Der Bundes-Hinweis folgt einer breiteren Warnung staatlicher Wertpapieraufsichten vom vergangenen Wochenende. Am Sonntag, den 21. Dezember, veröffentlichten die Aufsichtsbehörde von Hawaii und die nordamerikanische Vereinigung der Wertpapieradministratoren (NASAA) eine Liste der größten Anlegergefahren für das kommende Jahr.
Ty Y. Nohara, Wertpapierkommissar von Hawaii, betonte: Die Technologie habe sich geändert, die Absicht bleibe gleich. „Das schnelle Wachstum der Technologie und der Aufstieg der künstlichen Intelligenz geben Betrügern neue Werkzeuge an die Hand, um Ihr Geld zu stehlen.“ Den Aufsichern zufolge setzen etwa 22,2 Prozent der Kriminellen inzwischen KI ein, um Deepfake-Videos und geklonte Stimmen zu erzeugen.
Diese Betrugsmaschen treten oft als „Phantom-KI-Handelsroboter“ auf – Systeme, die garantierte Renditen durch nicht-existente Algorithmen versprechen. Oder als „Pig Butchering“-Pläne (Schweineschlachten), bei denen Betrüger langfristig romantisches Vertrauen zu Opfern aufbauen, bevor sie sie zu Investitionen in betrügerische Krypto-Plattformen überreden.
Das „Elon-Musk“-Syndrom und die menschlichen Kosten
Die verheerenden Folgen werden immer sichtbarer. Ein Bericht von The Independent vom 15. Dezember schildert den Fall von George Hendricks, einem 69-jährigen Bewohner Floridas, der 45.000 US-Dollar durch einen Deepfake-Betrug verlor. Hendricks wurde von einem KI-generierten Video getäuscht, das Elon Musk zeigte, der sich direkt an ihn wandte und ihn glauben ließ, er habe ein Auto und einen Geldpreis gewonnen.
„Die Kriminellen nutzen künstliche Intelligenze tatsächlich, um nach spezifischen Merkmalen und Profilen zu suchen“, sagte Pete Nicoletti, Chief Information Security Officer bei Check Point. Senioren, die in sozialen Medien wie Facebook über Hobbys oder Rentenpläne posten, lieferten den Betrügern die Daten, um KI-Modelle für personalisierte Angriffe zu trainieren.
Diese „Promi-Empfehlungs“-Deepfakes sind zu einem Hauptvektor für Betrug geworden. Oft zeigen sie KI-manipulierte Videos von prominenten Persönlichkeiten wie Musk, Jeff Bezos oder sogar Donald Trump, die „Gewinnspiel“-Betrügereien oder Hochzins-Anlageplattformen bewerben, die verschwinden, sobald Gelder überwiesen sind.
Branchenanalyse: Die Bedrohung durch „agentische“ KI
Cybersicherheitsexperten warnen, dass sich die Bedrohungslandschaft von menschengesteuerten Betrügereien zu vollautomatisierten „agentischen“ KI-Systemen verschiebt. Diese autonomen Tools können Tausende potenzielle Opfer gleichzeitig ansprechen und überzeugende Gespräche ohne menschliches Eingreifen bis zum finalen Diebstahlmoment führen.
Laut Money Talks News vom 22. Dezember sind die finanziellen Auswirkungen gravierend. Die tatsächlich gemeldeten Verluste bei älteren Erwachsenen stiegen 2024 auf einen Rekordwert von 2,4 Milliarden US-Dollar – eine Summe, die 2025 angesichts der Verbreitung zugänglicher KI-Tools wahrscheinlich noch übertroffen wurde. Die US-Handelsaufsicht FTC schätzt, dass der Gesamtverlust inklusive nicht gemeldeter Fälle bis zu 81,5 Milliarden US-Dollar jährlich betragen könnte.
„Die Herausforderung für 2025 war nicht die Autorisierung – es war die Glaubwürdigkeit“, stellte ein Bericht zu Betrugstrends bei Zahlungen fest. „Deepfakes und synthetische Inhalte sind inzwischen überzeugend genug, um manuelle Überprüfungen zu bestehen. Das schafft eine wachsende Lücke zwischen regulatorischer Compliance und realer Betrugsexposition.“
Ausblick: Biometrie wird zum nächsten Schlachtfeld
Experten sagen für 2026 voraus, dass biometrische Sicherheit zum nächsten Schlachtfeld wird. Da Stimmklone inzwischen einige stimmenbasierte Bank-Authentifizierungssysteme überlisten können, drängen Finanzinstitute auf die Implementierung multimodaler Verifikation, die sowohl Stimme als auch „Liveness Detection“ (Lebendigkeitserkennung) erfordert.
Bis dahin raten FBI und Aufseher zu einem „Zero-Trust“-Ansatz. „Wenn Sie sich unter Druck gesetzt fühlen, schnell zu handeln, Geld zu zahlen oder persönliche Informationen herauszugeben – machen Sie eine Pause“, riet FBI-Direktor Kash Patel in einer Stellungnahme. Familien wird empfohlen, ein „Sicherheitswort“ zu vereinbaren, um die Identität von Anrufern zu überprüfen, die behaupten, in Not geratene Verwandte zu sein – eine einfache analoge Verteidigung gegen eine zunehmend digitale Bedrohung.
PS: Übrigens: Viele dieser Angriffe beginnen mit einer scheinbar harmlosen Nachricht oder einem vertrauenswürdig wirkenden Anruf. Das kostenlose Anti‑Phishing‑Paket liefert konkrete Erkennungsregeln, Praxis‑Beispiele zu Vishing und CEO‑Fraud sowie eine leicht anwendbare Checkliste für den Ernstfall – ideal, um Angehörige zu schützen und finanzielle Verluste zu vermeiden. Anti-Phishing-Guide jetzt kostenlos sichern


