Microsoft, Phishing-Angriffe

Microsoft: 40 Prozent aller Phishing-Angriffe nutzen den Tech-Riesen als Köder

16.10.2025 - 22:25:02

Cyberkriminelle nutzen künstliche Intelligenz für perfekte Fälschungen von E-Mails, Stimmen und Videos. Die Erkennung wird zunehmend schwieriger, während Microsoft am häufigsten imitiert wird.

KI-gestützte Betrugsmaschen erreichen eine neue Dimension der Täuschung. Cyberkriminelle setzen zunehmend auf künstliche Intelligenz, um perfekte Fälschungen von E-Mails, Stimmen und sogar Videos zu erstellen – mit Microsoft als beliebtestem Lockmittel.

Aktuelle Berichte von Check Point Research und Microsoft zeigen: Die Verschmelzung von generativer KI und Social Engineering hat die Einstiegshürden für Cyberkriminalität drastisch gesenkt. Selbst unerfahrene Akteure können heute hyperrealistische Betrugs-E-Mails, Websites und sogar Deepfake-Inhalte erstellen. Die Folge? Es wird immer schwieriger, zwischen legitimen Nachrichten und raffinierten Betrügereien zu unterscheiden.

Wenn KI zum Komplizen wird

Die traditionellen Warnzeichen für Phishing-Mails gehören der Vergangenheit an. Rechtschreibfehler oder holprige Grammatik? Fehlanzeige. Microsofts Digital Defense Report 2025 dokumentiert, wie Cyberkriminelle KI nutzen, um maßgeschneiderte Angriffe zu starten – von der beschleunigten Malware-Entwicklung bis hin zu täuschend echten Inhalten für Social Engineering.

Besonders perfide: Die Angreifer analysieren die Online-Präsenz ihrer Ziele und verwenden spezifische Details für ihre Nachrichten. Das dramatisch erhöht die Erfolgsquote im Vergleich zu herkömmlichen Phishing-Methoden.

Doch die Bedrohung beschränkt sich längst nicht mehr auf E-Mails. Vishing-Angriffe mit KI-generierten Stimmenklonen können bereits mit wenigen Sekunden Audiomaterial aus öffentlichen Quellen die Stimme vertrauenswürdiger Personen nachahmen. Ein spektaculärer Fall aus 2024: Ein Mitarbeiter der Ingenieurfirma Arup überwies 25 Millionen Dollar nach einer Videokonferenz – mit Deepfake-Versionen der Firmenführung.
Anzeige: Übrigens: Viele dieser KI-befeuerten Betrugsmaschen zielen direkt auf das Smartphone – per WhatsApp, SMS oder Banking-App. Ein kostenloser Ratgeber zeigt die 5 wichtigsten Schutzmaßnahmen für Android mit leicht verständlichen Schritt-für-Schritt-Anleitungen – ganz ohne teure Zusatz-Apps. So sichern Sie WhatsApp, Online-Shopping, PayPal und Online-Banking spürbar besser ab. Jetzt kostenloses Android-Sicherheitspaket herunterladen

Die Masche mit den Markenriesen

Microsoft führt die unrühmliche Liste der am häufigsten imitierten Marken an. Das überrascht kaum: Die weit verbreiteten Produktivitätsplattformen des Konzerns machen ihn zum idealen Köder. Google (9 Prozent) und Apple (6 Prozent) folgen auf den Plätzen.

Bemerkenswert ist die Rückkehr von PayPal und DHL in die Top 10 der missbrauchten Marken. Hier nutzen die Betrüger gezielt den Dringlichkeitscharakter von Finanz- und Logistikdiensten aus. Forscher entdeckten beispielsweise eine gefälschte DHL-Anmeldeseite, die nicht nur Zugangsdaten, sondern auch Telefonnummern und Adressen für weitere gezielte Angriffe sammelte.

Hightech-Verteidigung gegen KI-Angriffe

Die Cybersecurity-Branche befindet sich in einem regelrechten Wettrüsten. Am 14. Oktober kündigte das Sicherheitsunternehmen Netcraft einen neuen “Phone Scam Disruption”-Service an, der betrügerische Telefonnummern automatisch erkennt und abschaltet. Bereits in der Pilotphase wurden über 50.000 schädliche Nummern erfolgreich stillgelegt.

Auch Behörden schlagen Alarm. FBI und die US-Cybersicherheitsbehörde CISA drängen auf Multi-Faktor-Authentifizierung und verstärkte Mitarbeiterschulungen. Die wichtigste Regel bleibt jedoch: Dringende Anfragen immer über einen separaten, sicheren Kommunikationsweg verifizieren.

Der Blick nach vorn: Autonome Cyber-Angriffe?

Experten prognostizieren eine weitere Eskalation: Bald könnten mehrkanalige Angriffe entstehen, die nahtlos zwischen E-Mail, Telefon und Video wechseln. Europol warnt sogar vor vollständig autonomen KI-Netzwerken, die Angriffe ohne menschliche Kontrolle planen und ausführen könnten.

Die Verteidigung der Zukunft setzt auf KI-gesteuerte Abwehrsysteme, die Anomalien in Kommunikationsmustern in Echtzeit erkennen. Gleichzeitig wird kontinuierliche Mitarbeiterschulung – inklusive Deepfake-Simulationen – zum unverzichtbaren Baustein der digitalen Sicherheit. Denn eines bleibt klar: Im Kampf zwischen KI-Angreifern und KI-Verteidigern entscheidet oft noch immer der Mensch über Erfolg oder Misserfolg.

@ boerse-global.de