Whisper Leak: Neue Sicherheitslücke bedroht KI-Chat-Nutzer
08.11.2025 - 17:02:12Der unsichtbare Lauschangriff
Microsoft-Forscher schlagen Alarm: Eine neuartige Cyberangriffsmethode kann Gesprächsthemen mit KI-Chatbots ausspähen – selbst wenn die Verbindung vollständig verschlüsselt ist. Die als „Whisper Leak” bezeichnete Schwachstelle betrifft praktisch alle gängigen KI-Dienste und stellt damit Millionen Nutzer vor ein ernsthaftes Datenschutzproblem.
Die gestern im Microsoft Security Blog veröffentlichte Entdeckung erschüttert eine Grundannahme der digitalen Sicherheit: dass TLS-Verschlüsselung ausreicht, um KI-Konversationen vertraulich zu halten. Besonders brisant: Angreifer benötigen keinen Zugriff auf die eigentlichen Inhalte. Es genügt, den Datenverkehr zu beobachten.
Wie funktioniert diese neue Bedrohung? Die Schwachstelle nutzt eine Eigenschaft moderner Sprachmodelle aus: das sogenannte Streaming. Anstatt die komplette Antwort auf einmal zu liefern, senden KI-Dienste ihre Antworten Wort für Wort – eine Funktion, die eigentlich für flüssigere Nutzererfahrung sorgen soll.
Genau hier setzt Whisper Leak an. Jedes Gesprächsthema erzeugt einen charakteristischen „digitalen Rhythmus” – ein spezifisches Muster aus Paketgrößen und zeitlichen Abständen im verschlüsselten Datenstrom. Die Microsoft-Forscher Jonathan Bar Or und Geoff McDonald trainierten maschinelle Lernalgorithmen darauf, diese Metadaten zu analysieren.
Die Ergebnisse sind alarmierend: Bei Tests mit 28 beliebten KI-Anbietern konnte der Angriff bei 17 Modellen mit 100-prozentiger Präzision sensible Gesprächsthemen identifizieren. Wer könnte solche Attacken durchführen? Praktisch jeder, der den Netzwerkverkehr beobachten kann – von staatlichen Akteuren bei Internetanbietern über Angreifer in lokalen Netzwerken bis hin zu Personen im selben öffentlichen WLAN.
Öffentliche WLANs und ungesicherte Verbindungen sind ein Einfallstor für Metadaten‑Analysen – viele Nutzer übersehen einfache Schutzmaßnahmen auf ihrem Smartphone. Ein kostenloses Sicherheitspaket erklärt die fünf wichtigsten Schritte, mit denen Sie WhatsApp, Online-Banking und Chat-Apps vor Datendieben schützen können. Praktische Schritt-für-Schritt-Anleitungen helfen dabei, Ihr Android-Gerät sofort sicherer zu machen. Jetzt kostenlosen Android-Sicherheitsratgeber herunterladen
Millionen Nutzer potenziell betroffen
Die Tragweite ist kaum zu überschätzen. Betroffen sind alle, die KI-Chatbots für sensitive Themen nutzen: Juristen bei Rechtsrecherchen, Finanzberater bei Anlagestrategien, Unternehmen bei vertraulichen Geschäftsbesprechungen. Das Perfide: Der Angriff ist vollständig passiv. Weder Nutzer noch KI-Anbieter bemerken die Überwachung.
Microsoft startete bereits im Juni 2025 einen verantwortungsvollen Offenlegungsprozess und informierte 28 große Anbieter. Zu den reagierenden Unternehmen zählen OpenAI, Mistral und X.AI. Sie haben mittlerweile Gegenmaßnahmen implementiert. Doch die Forscher dämpfen Hoffnungen auf schnelle Abhilfe: Keine der getesteten Schutztechniken konnte den Angriff vollständig neutralisieren.
Teil eines größeren Problems
Whisper Leak steht nicht allein. Erst kürzlich deckte die Sicherheitsfirma Tenable sieben kritische Schwachstellen in OpenAIs ChatGPT auf – das Paket trägt den Namen „HackedGPT”. Diese Lücken ermöglichen es Angreifern, persönliche Informationen aus Chatverläufen zu stehlen, und zwar durch manipulierte Eingaben.
Was beide Fälle verbinden? Sie offenbaren ein grundsätzliches Sicherheitsdilemma der KI-Ära: Die Modelle können kaum zwischen legitimen Anweisungen und bösartigen Daten unterscheiden. Während HackedGPT aktive Ausnutzung durch manipulierte Prompts erfordert, ist Whisper Leak noch heimtückischer – es genügt simples Zuschauen.
Diese Entwicklungen zeichnen das Bild einer komplexen Bedrohungslandschaft, in der die Privatsphäre der Nutzer aus mehreren Richtungen unter Beschuss steht.
Was Nutzer jetzt tun können
Bis die Branche umfassende Lösungen entwickelt hat, rät Microsoft zu konkreten Schutzmaßnahmen. Der wichtigste Rat: Hochsensible Themen nicht in ungesicherten Netzwerken besprechen. Öffentliche WLANs sind besonders riskant, da hier Angreifer leicht den Datenverkehr mitlesen können.
Ein vertrauenswürdiger VPN-Dienst bietet zusätzlichen Schutz, indem er den Datenverkehr vor lokalen Beobachtern verbirgt. Zudem sollten Nutzer bei besonders vertraulichen Gesprächen prüfen, ob ihr KI-Dienst einen Nicht-Streaming-Modus anbietet – sofern verfügbar.
Für die Industrie bedeutet diese Forschung einen Weckruf: Inhaltsverschlüsselung allein reicht nicht mehr. Anbieter müssen künftig auch die durch Metadaten preisgegebenen Informationen absichern. Techniken wie Traffic Shaping oder zufällige Datenpakete könnten die verräterischen Muster verschleiern.
Je tiefer KI in unser privates und berufliches Leben eindringt, desto dringlicher wird die Frage: Können wir unseren digitalen Assistenten wirklich vertrauen?
PS: Wer vertrauliche Gespräche führen will, sollte auf Ende-zu-Ende-Schutz und richtige Chat-Einstellungen achten. Ein Gratis-Report zeigt, wie Sie sicher zu Telegram wechseln, geheime Chats nutzen und Ihre Privatsphäre in wenigen Minuten stärken. Telegram-Startpaket jetzt gratis anfordern


