Google, Staaten

Google warnt: Staaten nutzen KI-Modell Gemini für Hackerangriffe

12.02.2026 - 11:00:12

Staatliche Hacker aus China, Iran, Nordkorea und Russland missbrauchen Googles KI-System Gemini systematisch für Cyberangriffe. Das geht aus einem neuen Bericht des Konzerns hervor, der einen Wendepunkt im digitalen Wettrüsten markiert.

Der heute veröffentlichte Report des Google Threat Intelligence Group (GTIG) zeigt: Ausländische Geheimdienste haben generative KI von experimentellen Versuchen in den vollständigen Betrieb überführt. Die als Advanced Persistent Threat (APT) bekannten Gruppen nutzen Gemini für alle Phasen ihrer Attacken – von der Zielerkundung bis zur Entwicklung komplexer Schadsoftware.

„Dies bestätigt, was viele befürchtet haben“, sagt ein Sicherheitsexperte. „KI ist keine Zukunftsmusik mehr, sondern ein Standardwerkzeug im Arsenal staatlicher Hacker.“ Besonders besorgniserregend: Die KI senkt die Einstiegshürde für anspruchsvolle Cyberoperationen erheblich.

Chinesische Hacker automatisieren Schwachstellen-Suche

Laut Google nutzt die chinesische Gruppe APT31 das KI-Modell besonders strukturiert. Die Hacker gaben sich als Cybersicherheitsexperten aus, um Gemini zur automatischen Analyse von Software-Schwachstellen zu prompten. Mit dem Open-Source-Tool „Hexstrike“ suchten sie nach Angriffspunkten bei US-Zielen, darunter Ferncode-Ausführungen und SQL-Injection-Lücken.

Iranische Akteure der Gruppe APT42 setzten Gemini hingegen für Spionagekampagnen ein. Die KI half bei der Erstellung täuschend echter Phishing-E-Mails, der Übersetzung technischer Dokumente und der Fehlerbehebung in eigenen Skripten. So konnten die Hacker ihre Angriffe effizienter und in größerem Maßstab durchführen.

Gefährlicher Trend: Angreifer „destillieren“ KI-Wissen

Ein alarmierender neuer Trend sind sogenannte „Distillation Attacks“. Dabei versuchen Angreifer, die Logik und das Wissen großer KI-Modelle wie Gemini in kleinere, eigene Modelle zu übertragen. Sie nutzen legitimen API-Zugang, um Tausende spezifische Anfragen an Gemini zu stellen.

Ziel ist die Schaffung unzensierter KI-Werkzeuge ohne die Sicherheitsvorkehrungen kommerzieller Anbieter. „Das ist geistiger Diebstahl mit langfristigen Risiken“, warnt der Bericht. Solche privatisierten KI-Modelle könnten unkontrolliert in kriminellen Kreisen zirkulieren.

KI-generierte Malware: HonestCue und CoinBait

Der Report nennt auch konkrete Schadprogramme, die mit Hilfe von Gemini entstanden. Das im Spätjahr 2025 beobachtete Framework „HonestCue“ nutzt die Gemini-API, um C#-Code für Zweitstufen-Payloads zu generieren. Diese werden direkt im Arbeitsspeicher kompiliert und ausgeführt – eine Technik, die herkömmliche Virenscanner umgeht.

Zudem beschreibt Google den Phishing-Kit „CoinBait“, der als Kryptobörse getarnt ist. Code-Analysen zeigen, dass seine Entwickler massiv auf KI-Code-Generatoren zurückgriffen, um die Plattform schnell aufzubauen. Sie sammelt Login-Daten ahnungsloser Nutzer.

Google hat die für diese Missbräuche verantwortlichen Konten und Infrastrukturen inzwischen gesperrt. Neue Algorithmen in Geminis Klassifizierungssystemen sollen ähnliche Muster künftig früher erkennen.

Anzeige

Die Enthüllungen aus Googles Report zeigen, wie schnell Angreifer KI zur Skalierung nutzen. Wenn auch Ihr Unternehmen besser gegen Phishing, KI-generierte Malware und automatisierte Angriffe gewappnet sein soll, hilft ein kompakter Leitfaden mit konkreten Schutzmaßnahmen. Der kostenlose E‑Book-Report erklärt aktuelle Cyber‑Security‑Trends, neue Gesetze (inkl. KI-Regulierung) und praxisnahe Abwehrstrategien für kleine und mittlere Unternehmen. Kostenloses Cyber-Security E‑Book herunterladen

Systematisches Problem: KI als Doppelzweck-Technologie

Die Enthüllungen folgen auf eine Reihe von Sicherheitsbedenken gegenüber KI-Plattformen. Erst im Januar 2026 demonstrierten Forscher eine Schwachstelle in Google Kalender, über die Angreifer Gemini mit versteckten Prompts manipulieren konnten.

Der heutige Bericht zeigt jedoch ein grundsätzlicheres Problem auf: die Dual-Use-Natur generativer KI. Dieselben Fähigkeiten, die Entwicklern und Forschern helfen, werden von Gegnern weaponisiert, um ihre Angriffe zu skalieren.

„Das Katz-und-Maus-Spiel zwischen KI-Anbietern und Angreifern wird sich verschärfen“, prognostiziert eine Branchenanalystin. Hacker suchten ständig nach neuen Wegen, Modelle zu „jailbreaken“ oder ihr Trainingswissen zu extrahieren.

Angriffsvolumen dürfte 2026 weiter steigen

Die Trends des Berichts werden sich Experten zufolge 2026 noch beschleunigen. KI automatisiert die „Fleißarbeit“ des Hackens – vom Schreiben standardisierten Malware-Codes bis zum Verfassen personalisierter Phishing-Mails. Das bedeutet: Auch wenn die Raffinesse einzelner Angriffe gleich bleibt, wird deren Volumen deutlich zunehmen.

Google kündigte an, seine Bedrohungserkennung kontinuierlich zu aktualisieren und Erkenntnisse mit der Sicherheitscommunity zu teilen. Doch der Report ist auch eine deutliche Warnung an alle Organisationen: Ihre Verteidigung muss besser werden, denn die Hürden für ausgeklügelte Cyberangriffe sinken im KI-Zeitalter stetig.

@ boerse-global.de

Hol dir den Wissensvorsprung der Profis. Seit 2005 liefert der Börsenbrief trading-notes verlässliche Trading-Empfehlungen – dreimal die Woche, direkt in dein Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr.
Jetzt anmelden.