ChatGPT, Alterserkennung

ChatGPT führt Alterserkennung ein – Schutz für Jugendliche, neue Freiheiten für Erwachsene

21.01.2026 - 06:30:12

OpenAI startet eine KI-gestützte Alterserkennung für ChatGPT. Sie soll Jugendliche besser schützen und den Weg für explizite Inhalte freimachen.

Die neue Technologie analysiert seit dieser Woche das Nutzerverhalten, um das Alter zu schätzen. Für mutmaßliche Minderjährige unter 18 Jahren aktiviert sie automatisch strengere Content-Filter. Diese Doppelstrategie soll einerseits Teenager vor schädlichem Material bewahren. Andererseits ebnet sie den Weg für eine Lockerung der Inhaltsrichtlinien für verifizierte Erwachsene noch im ersten Quartal 2026.

Statt sich auf nutzergespeicherte Geburtsdaten zu verlassen, setzt OpenAI auf ein „Altersvorhersage-Modell“. Es wertet im Hintergrund Verhaltenssignale aus. Dazu zählen das Kontoalter, typische Nutzungszeiten und langfristige Interaktionsmuster.

Anzeige

Passend zum Thema KI-Regulierung: Seit August 2024 gelten in der EU neue Vorgaben für KI-Systeme — darunter Kennzeichnungspflichten, Risikoklassifizierung und umfangreiche Dokumentationspflichten, die gerade bei Systemen zur Altersvorhersage relevant sind. Unser kostenloser Umsetzungsleitfaden erklärt praxisnah, welche Pflichten Entwickler und Betreiber jetzt erfüllen müssen, welche Fristen gelten und wie Sie Ihr System rechtssicher klassifizieren. Jetzt kostenlosen KI-Verordnungs-Leitfaden herunterladen

Kann die KI ein Alter nicht sicher bestimmen oder geht von einem Minderjährigen aus, schaltet sie vorsorglich den eingeschränkten „Teen-Modus“ frei. Dieser baut auf bestehenden Jugendschutzmaßnahmen auf. Die globale Einführung läuft; die EU folgt in den kommenden Wochen, um regionale Vorgaben wie die DSGVO zu erfüllen.

Strengere Filter für junge Nutzer

Für als minderjährig eingestufte Konten gelten automatisch schärfere Regeln. ChatGPT blockiert dann Inhalte zu grafischer Gewalt, Selbstverletzung oder sexuellen Rollenspielen.

Eingeschränkt wird auch Material, das zu gefährlichen Challenges, ungesunden Diäten oder extremen Schönheitsidealen animiert. Diese Maßnahmen sind Teil des „Teen Safety Blueprint“, den OpenAI nach Kritik und Klagen Ende 2025 vorstellte. Die Entwicklung orientierte sich an Studien zur Jugendpsychologie, die auf eine andere Risikowahrnehmung bei Teenagern hinweisen.

Verifikation als Türöffner für Erwachsenen-Inhalte

Erwachsene, die fälschlich als Jugendliche eingestuft werden, können ihr Alter nachweisen. Dafür kooperiert OpenAI mit dem Drittanbieter Persona. Nutzer laden ein Selfie und teilweise einen Ausweis hoch. OpenAI betont, nur eine Altersbestätigung zu erhalten, nicht die Daten selbst. Persona löscht diese innerhalb von sieben Tagen.

Dieser Verifikationsprozess ist die Grundlage für die geplante Liberalisierung. Berichte bestätigen, dass OpenAI erotische und explizite Inhalte für verifizierte Erwachsene zulassen will. Der Schritt, bereits für 2025 angekündigt, wurde verschoben. Treiber sind der Wettbewerb mit Plattformen wie xAIs Grok und das Prinzip, „Erwachsene wie Erwachsene zu behandeln“.

Kritik an Genauigkeit und Datenschutz

Mit der Alterserkennung reiht sich OpenAI bei Tech-Konzernen wie Google und Roblox ein. Doch die Strategie ist umstritten. Kritiker zweifeln an der Treffsicherheit der KI und fürchten, dass technikaffine Jugendliche die Sperren umgehen.

Datenschützer sehen die Verifikation über Drittanbieter skeptisch. „Die Last einer falschen Vorhersage trägt der Nutzer, der private Daten preisgeben muss“, sagt Alexis Hancock von der Electronic Frontier Foundation. Sicherheitslücken bei Verifikationsdiensten, wie ein Vorfall bei einem Discord-Partner 2025, unterstreichen die Risiken.

Ausblick: Balanceakt zwischen Sicherheit und Freiheit

OpenAI will das Modell mit mehr Daten fortlaufend verbessern. Sein Erfolg entscheidet über die geplante Lockerung der Content-Politik. Die Branche beobachtet den Balanceakt genau: Wie lassen sich Jugendschutz, kreative Freiheit und kommerzielle Ziele vereinen? Für Nutzer beginnt eine Ära der stärker personalisierten KI, in der die Grenzen davon abhängen, wer die Frage stellt.

Anzeige

PS: Sie möchten wissen, wie Sie eine Datenschutz- und Risikobewertung für KI-Systeme wie Altersvorhersage richtig angehen? Der kostenlose Leitfaden zur EU-KI-Verordnung bietet konkrete Checklisten, Muster für die Dokumentation und klare Handlungsschritte, damit Entwickler, Produktmanager und Datenschutzverantwortliche ihre Systeme rechtssicher betreiben und Bußgelder vermeiden. Jetzt Leitfaden & Checklisten herunterladen

@ boerse-global.de