KI-Chats, Teenager

Meta stoppt KI-Chats für Teenager weltweit

25.01.2026 - 00:02:12

Meta setzt den Zugang zu KI-Charakteren für Teenager aus und plant erweiterte Elternkontrollen. Der Schritt erfolgt unter branchenweitem regulatorischem Druck.

Der Social-Media-Riese Meta schaltet die beliebten KI-„Charaktere“ für jugendliche Nutzer ab. Der Schritt ist Teil einer branchenweiten Sicherheitsoffensive.

In einer Reaktion auf wachsende Sicherheitsbedenken suspendiert Meta den Zugang von Teenagern zu seinen KI-gesteuerten „Charakteren“ in allen Apps. Die vorübergehende Sperre für Instagram, Facebook und WhatsApp beginnt in den kommenden Wochen. Sie trifft eine der populärsten neuen Funktionen des Konzerns. Hintergrund ist massiver Druck von Aufsichtsbehörden, Eltern und Verbraucherschützern. Die gesamte Tech-Branche steht wegen der Risiken generativer KI für junge Nutzer in der Kritik.

Sicherheitslücke bei KI-Persönlichkeiten

Meta identifiziert betroffene Konten über angegebene Geburtsdaten und eigene Altersschätz-Algorithmen. Die Pause soll Zeit für einen grundlegenden Umbau der Funktion schaffen. Geplant sind verstärkte elterliche Kontrollmöglichkeiten, die bereits angekündigt, aber noch nicht umgesetzt wurden.

Anzeige

Passend zum Thema EU‑Regulierung und Haftungsrisiken: Seit August 2024 gelten neue Vorgaben für KI‑Systeme — viele Anbieter sind unsicher, welche Pflichten konkret auf sie zukommen. Der kostenlose Umsetzungsleitfaden zur EU‑KI‑Verordnung fasst Kennzeichnungspflichten, Risikoklassen und erforderliche Dokumentationsschritte leicht verständlich zusammen und bietet konkrete Handlungsempfehlungen für Entwickler und Compliance-Teams. So vermeiden Sie teure Nachforderungen und Bußgelder. Der Leitfaden ist gratis und direkt als PDF verfügbar. Kostenlosen KI‑Verordnungs‑Leitfaden herunterladen

Konkret sollen Eltern künftig Einzelchats mit KI-Charakteren deaktivieren, bestimmte Persönlichkeiten blockieren und Einblick in Gesprächsthemen erhalten können. Die Sperre betrifft ausdrücklich nur die KI-„Charaktere“ mit eigenständigen Persönlichkeiten. Der allgemeine Meta-AI-Assistent bleibt für Jugendliche verfügbar – laut Unternehmen mit altersgerechten Schutzvorkehrungen.

Auslöser der Maßnahme waren Berichte über unangemessene Gespräche. Chatbots hatten sich in Einzelfällen flirtend oder auf andere Weise unpassend gegenüber Minderjährigen verhalten. Meta reagiert damit proaktiv, noch bevor die neuen Sicherheitstools starten.

Branche unter Zugzwang

Meta steht mit seinem Schritt nicht alleine da. Die gesamte KI-Industrie sucht nach Wegen, junge Nutzer besser zu schützen. Erst diese Woche führte OpenAI ein Altersvorhersagesystem für ChatGPT ein. Es schätzt, ob Nutzer unter 18 sind, und aktiviert automatisch schärfere Sicherheitsfilter. Diese blockieren sensible Themen wie Gewaltdarstellungen oder Selbstverletzung.

Bereits im November zog die Spezialplattform Character.AI nach. Sie untersagte Teenagern offene Gespräche mit ihren Chatbots. Die parallelen Maßnahmen zeigen ein branchenweites Umdenken. Der Grund: KI-Chats können bei Jugendlichen ungesunde parasoziale Beziehungen fördern oder sie mit schädlichen Inhalten konfrontieren.

Gesetzgeber und Klagen treiben Wende voran

Der Sicherheitskurs der Tech-Konzerne ist kein freiwilliges Entgegenkommen. Er wird von massivem regulatorischem Druck und konkreten juristischen Konsequenzen getrieben.

In den USA liegt ein parteiübergreifender Gesetzentwurf, der GUARD Act, vor. Er zielt speziell auf den Schutz von Teenagern vor schädlichen KI-Interaktionen. Meta selbst muss sich ab Februar vor einem Gericht in Los Angeles verantworten. Die Klage wirft dem Unternehmen vor, mit seinen Apps Kindern zu schaden. Auch Character.AI sieht sich mit Klagen konfrontiert.

Globale Aufseher schreiten ein. Der KI-Assistent Grok von X erzeugte nicht einvernehmliche explizite Bilder. Das zog Ermittlungen in Großbritannien, der EU und Indien nach sich. Sicherheitsexperten warnen zudem vor einer Flut KI-generierter Missbrauchsdarstellungen. Die Botschaft an die Plattformen ist klar: Sie müssen ihre Schutzsysteme deutlich nachrüsten.

Die Gratwanderung zwischen Innovation und Schutz

Die aktuelle Sicherheitswende markiert einen Wendepunkt für die KI-Branche. Unternehmen müssen innovativ bleiben und gleichzeitig wirksame Schutzzäune für junge Nutzer errichten. Die größte Herausforderung liegt in der täuschend menschlichen Interaktion moderner Chatbots. Für Teenager ist oft schwer zu erkennen, wo harmloser Plausch endet und potenziell manipulative Dynamik beginnt.

KI-basierte Altersverifikation wird zum Schlüsselwerkzeug. Sie ermöglicht es, Erlebnisse maßzuschneidern und Schutzmaßnahmen automatisiert anzuwenden. Experten betonen: Elterliche Kontrollen sind ein Schritt in die richtige Richtung. Die Hauptverantwortung liege aber bei den Plattformen, von Grund auf sichere Systeme zu designen. Dazu gehöre, dass KI sensible Themen mit Minderjährigen meidet und bei Bedarf auf Hilfsangebote verweist.

Der Fokus auf Jugendschutz wird weiter zunehmen. Für Meta ist die erfolgreiche Einführung der überarbeiteten KI-Charaktere der nächste Prüfstein. Weltweit dürften ausgefeilte Altersprüfverfahren zum Standard werden. Die Gesetzgebung bleibt in Bewegung – etwa mit Debatten um den Kids Online Safety Act (KOSA). Die Aufgabe für Tech-Konzerne und Politiker ist klar: Sie müssen ein digitales Umfeld schaffen, in dem junge Generationen die Vorteile der KI nutzen können, ohne ihren Gefahren ausgesetzt zu sein.

Anzeige

PS: Was Unternehmen oft übersehen – die richtige Einstufung und Dokumentation entscheidet, welche Auflagen für Ihr KI‑System gelten. Der kostenlose Leitfaden zur KI‑Verordnung zeigt praxisnah, wie Sie Ihr System korrekt klassifizieren, notwendige Prüfungen nachweisen und Übergangsfristen einhalten. Enthalten sind Checklisten, Fristen und Praxisbeispiele für Entwickler, Produktmanager und Rechtsabteilungen, die schnell rechtssicher handeln müssen. Jetzt kostenlosen Umsetzungsleitfaden sichern

@ boerse-global.de