EU-Parlament fordert Verbot von Deepfake-Pornografie-Tools
28.01.2026 - 20:32:12Die EU will gegen künstlich generierte Nacktbilder vorgehen – und erwägt ein radikales Verbot der zugrundeliegenden KI-Systeme. Hintergrund ist ein neues Ermittlungsverfahren gegen die Plattform X.
Brüssel. Im Kampf gegen missbräuchliche Künstliche Intelligenz schlägt das Europäische Parlament einen schärferen Kurs ein. Nach einem Skandal um KI-generierte Pornografie auf der Plattform X fordern Abgeordnete nun ein vollständiges Verbot von Anwendungen, die nicht einvernehmliche Deepfake-Nacktbilder erzeugen. Diese Forderung markiert eine neue Stufe der Regulierung: Statt nur die Verbreitung zu ahnden, soll die Technologie an der Quelle gestoppt werden.
Der Druck aus dem Parlament folgt auf eine offizielle Untersuchung der EU-Kommission. Diese hat am 26. Januar ein formelles Verfahren gegen X unter dem Digital Services Act (DSA) eingeleitet. Geprüft wird, ob die als „sehr große Online-Plattform“ eingestufte Seite ihrer Sorgfaltspflicht nicht nachgekommen ist. Konkret geht es um systemische Risiken durch den KI-Chatbot Grok, der laut Berichten zur Erstellung und Verbreitung sexualisierter Deepfakes realer Personen – darunter Frauen und Kinder – genutzt wurde.
Die neuen EU-Regeln zum Umgang mit Künstlicher Intelligenz stellen Entwickler, Plattformen und Behörden vor konkrete Pflichten – von Risikoklassen über Kennzeichnungspflichten bis zu umfangreicher Dokumentation. Wer die Anforderungen des AI Act jetzt nicht kennt, riskiert rechtliche Konsequenzen. Ein kompakter Gratis-Leitfaden erklärt verständlich, welche Pflichten gelten, wie KI-Systeme eingeordnet werden und welche Fristen wichtig sind – praxisnah und sofort anwendbar. Kostenlosen KI-Umsetzungsleitfaden herunterladen
Ermittlungen gegen X und die Grenzen der Plattform-Regulierung
Die Untersuchung ist eine Verschärfung eines bereits seit Dezember 2023 laufenden Verfahrens zu den Empfehlungsalgorithmen von X. Nun rückt die Integration von Grok in den Fokus. Bei Verstößen drohen dem Unternehmen hohe Geldstrafen von bis zu sechs Prozent seines globalen Jahresumsatzes.
Doch für viele Parlamentarier greift diese Plattform-Regulierung zu kurz. In einer hitzigen Anhörung im Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) am 26. Januar drängten sie die Kommission, über die Durchsetzung auf Plattform-Ebene hinauszugehen. „Wir müssen die Systeme verbieten, die diesen Missbrauch überhaupt erst ermöglichen“, so die Kernforderung. Der DSA verpflichtet Plattformen zwar, illegale Inhalte zu entfernen und Risiken zu managen. Kritiker sehen darin jedoch nur eine reaktive Maßnahme.
Die Gretchenfrage: Reicht der KI-Gesetz aus?
Im Zentrum der Debatte steht eine grundsätzliche Unsicherheit: Sind die europäischen Vorzeigegesetze – der Digital Services Act und der KI-Gesetz (AI Act) – angesichts der rasanten Entwicklung generativer KI überhaupt noch ausreichend?
Die Aufmerksamkeit richtet sich nun auf den AI Act, das weltweit erste umfassende KI-Gesetz. Abgeordnete fordern, „Nudification“-Apps und ähnliche Deepfake-Tools in die Liste der verbotenen KI-Praktiken aufzunehmen. Diese Liste umfasst bereits Systeme mit inakzeptablem Risiko, wie Sozialkredit-Systeme oder bestimmte biometrische Überwachung.
Bisher sieht der AI Act für Deepfakes primär eine Transparenzpflicht vor: Künstlich generierte Inhalte müssen ab August 2026 klar gekennzeichnet werden. Ein explizites Verbot von Tools zur Erstellung nicht-einvernehmlicher sexualisierter Deepfakes wurde bei der Verabschiedung jedoch nicht aufgenommen. Ein Fehler, wie viele nun meinen – schlicht, weil die explosive Verbreitung dieser intimsten Form synthetischer Medien nicht vorhergesehen wurde.
Globale Dynamik und europäischer Handlungsdruck
Die EU handelt nicht allein. International wächst der Konsens, schädliche Deepfakes zu regulieren. Die USA verabschiedeten 2025 den „Take It Down Act“, der die Veröffentlichung nicht einvernehmlicher intimer Aufnahmen – auch KI-generierter – unter Strafe stellt. Großbritannien zog kürzlich mit ähnlichen Gesetzen nach. Dieser globale Trend bestärkt das Europäische Parlament in seiner härteren Linie.
Die Debatte offenbart den grundlegenden Zielkonflikt zwischen Innovationsförderung und Schutz der Bürger vor technologischem Missbrauch. Der AI Act sollte Europa eigentlich als KI-Standort stärken. Die jüngsten Skandale haben den Fokus jedoch deutlich in Richtung Schutz und Sicherheit verschoben.
Kommt das Verbot? Der Weg ist komplex
Die Kommission steht nun unter doppeltem Druck: Sie muss einerseits die Untersuchung gegen X abschließen und andererseits die Forderungen des Parlaments nach einer legislativen Lösung prüfen. Die AI Act-Verbotsliste regelmäßig zu überprüfen und zu erweitern, ist ein möglicher Weg. Dies könnte jedoch neue, konfliktreiche Verhandlungen erforderlich machen.
Als Zwischenlösung arbeitet die Kommission an einem freiwilligen Verhaltenskodex für KI-Anbieter, um die Transparenzpflichten umzusetzen. Für viele Abgeordnete sind solche „weichen“ Maßnahmen und die reine Plattform-Regulierung jedoch nicht mehr genug. Während die Ermittlungen laufen, wird der Druck für ein Verbot der Erstellungstools weiter steigen. Der Ausgang wird ein entscheidender Test für die Anpassungsfähigkeit der europäischen Digitalgesetze an die unberechenbare Evolution der Künstlichen Intelligenz sein.
PS: Verfolgen Sie die Debatte um Deepfakes und den AI Act? Ein kostenloser Guide erklärt kompakt, welche KI-Anwendungen in der EU als „hohes Risiko“ gelten, welche Kennzeichnungspflichten und Übergangsfristen jetzt greifen und welche praktischen Schritte Anbieter und Verantwortliche ergreifen sollten. Ideal für Entscheider, Entwickler und Datenschutzbeauftragte. Jetzt kostenlosen AI-Act-Leitfaden anfordern


