OpenAI startet Alterserkennung für ChatGPT
25.01.2026 - 15:02:12OpenAI führt eine KI-gestützte Alterserkennung ein, um Minderjährige auf seiner Plattform besser zu schützen. Die Maßnahme kommt unter wachsendem regulatorischem Druck und soll Jugendschutzstandards in der KI-Branche neu definieren.
Vom Geburtsdatum zur Verhaltensanalyse
Der Kern der neuen Sicherheitsstrategie ist ein maschinelles Lernmodell, das das Alter von Nutzern anhand ihres Nutzungsverhaltens schätzt. Statt sich wie bisher auf selbst angegebene Geburtsdaten zu verlassen – eine Methode, die technikaffine Teenager leicht umgehen können – analysiert das System nun Verhaltensmuster.
Laut technischer Dokumentation bewertet das Modell Faktoren wie das Alter des Kontos, typische Nutzungszeiten und langfristige Aktivitätsmuster. Auch das angegebene Alter wird berücksichtigt, aber gegen diese Verhaltensindikatoren validiert. Ziel ist eine deutlich genauere Unterscheidung zwischen erwachsenen und minderjährigen Nutzern.
Passend zum Thema KI‑Regulierung: Seit August 2024 gelten neue EU‑KI‑Regeln, die Entwickler und Anbieter vor umfassende Pflichten stellen. Ein kostenloses Umsetzungs‑E‑Book erklärt Kennzeichnungspflichten, Risikoklassen, Dokumentationsanforderungen und die wichtigsten Übergangsfristen – kompakt, praxisorientiert und mit Checklisten für die Umsetzung. Inklusive Schritt‑für‑Schritt‑Checkliste zur Systemklassifizierung und konkreten Maßnahmenplänen. Wenn Sie KI‑Systeme entwickeln, betreiben oder nutzen, ist jetzt Handeln gefragt. Kostenlosen KI‑Verordnung‑Leitfaden herunterladen
„Die Altersvorhersage-Technologie ermöglicht es uns, standardmäßig ein sichereres Erlebnis anzubieten, wenn das System einen Nutzer unter 18 Jahren vermutet“, erklärt OpenAI. Dieser proaktive Ansatz soll Konten erkennen, die bei der Registrierung ihr Alter falsch angegeben haben.
Strengere Filter für Jugendliche
Wird ein Konto als wahrscheinlich minderjährig eingestuft, schaltet ChatGPT automatisch in den „Teen Safety“-Modus. Diese restriktive Sicherheitskonfiguration filtert Inhalte heraus, die für jüngere Zielgruppen als ungeeignet gelten.
Blockiert werden unter anderem:
* Grafische Gewaltdarstellungen und blutige Inhalte
* Sexuell explizite Texte
* Inhalte zu Selbstverletzung, Suizid und riskanten „Viral Challenges“
* Inhalte, die extreme Schönheitsideale, ungesunde Diäten oder Bodyshaming fördern
Diese Änderungen entsprechen dem „Teen Safety Blueprint“, den OpenAI Ende 2025 vorgestellt hat. Durch die Automatisierung dieser Schutzmaßnahmen will das Unternehmen eine Barriere zwischen vulnerablen Nutzern und den unberechenbareren Ausgaben seiner Sprachmodelle schaffen.
Verifikation über Partner Persona
Da KI-Vorhersagen nicht unfehlbar sind, hat OpenAI einen Korrekturmechanismus für fälschlicherweise als minderjährig eingestufte Erwachsene implementiert. Betroffene können vollen Zugriff wiederherstellen, indem sie ihre Identität verifizieren.
Für diesen sensiblen Prozess kooperiert OpenAI mit Persona, einem externen Identitätsverifizierungsdienst. Nutzer können ihr Alter per Ausweisdokument oder „Live-Selfie“ bestätigen, das Personas Technologie auf Altersmerkmale analysiert. OpenAI betont, die Daten würden sicher verarbeitet und ausschließlich zur Verifikation genutzt.
Datenschutzexperten reagieren verhalten. Altersverifikation sei notwendig, doch die Erhebung biometrischer Daten erfordere strenge Aufsicht. OpenAI versichert, Ausweisdokumente nach Abschluss des Verifikationsprozesses nicht zu speichern.
Regulatorischer Druck ebnet Weg zum „Adult Mode“
Die Einführung des Alterserkennungsmodells erfolgt in einer Phase verschärfter regulatorischer Prüfung. Technologieunternehmen sehen sich zunehmend mit Klagen und parlamentarischen Anhörungen konfrontiert, die soziale Medien und KI-Plattformen mit Jugendlichen-Mental-Health-Krisen in Verbindung bringen.
Marktbeobachter deuten die aggressive Umsetzung der Altersverifikation auch als strategischen Schritt für künftige Produkterweiterungen. Berichten zufolge plant OpenAI noch 2026 einen „Adult Mode“ für verifizierte Nutzer ab 18 Jahren. Dieser würde Zugang zu bisher durch Sicherheitsfilter blockierten Inhalten ermöglichen, darunter NSFW-Material (Not Safe For Work) und reifere kreative Schreibfunktionen.
Durch die effektive Segmentierung seiner Nutzerbasis schafft OpenAI die notwendige Infrastruktur für diese abgestuften Erfahrungen. Eine zuverlässige Methode zur Unterscheidung Minderjähriger von Erwachsenen ist Voraussetzung, um weniger eingeschränkte Modelle anzubieten – ohne gegen Jugendschutzgesetze in den USA und der EU zu verstoßen.
EU-Implementierung unter strengeren Auflagen
Die globale Einführung läuft bereits, doch Nutzer in der Europäischen Union werden die Änderungen mit leichter Verzögerung erleben. OpenAI bestätigt, dass die Altersvorhersage-Funktionen in den kommenden Wochen in der EU starten, um die volle Compliance mit der Datenschutz-Grundverordnung (DSGVO) und dem KI-Gesetz der Region sicherzustellen.
OpenAI plant, das Altersvorhersagemodell kontinuierlich auf Basis realer Leistungsdaten zu verfeinern. Das Unternehmen hat Transparenz bezüglich der Systemgenauigkeit zugesagt und arbeitet mit externen Sicherheitsorganisationen zusammen, um die Wirksamkeit überprüfen zu lassen.
PS: Wenn Sie an der EU‑Regulierung arbeiten oder Ihr Produkt DSGVO‑konform halten müssen, hilft dieses gratis E‑Book mit einem klaren Umsetzungsleitfaden, Übergangsfristen und Praxistipps. Es zeigt, wie Sie Ihr System korrekt klassifizieren, Kennzeichnungen vorbereiten und die notwendige Dokumentation erstellen, um teure Bußgelder und Verzögerungen zu vermeiden. Sofortiger Download per E‑Mail. Ideal für Entwickler, Compliance‑Verantwortliche und Entscheider. Jetzt kostenlosen Umsetzungsleitfaden zur KI‑Verordnung sichern


