AI News

OpenAI führt verhaltensbasierte Altersvorhersage (Behavioral Age Prediction) ein, um den Schutz Minderjähriger auf ChatGPT zu stärken

OpenAI hat offiziell mit der Einführung eines ausgefeilten Altersvorhersagemodells für ChatGPT begonnen, was eine bedeutende Verschiebung von der auf Selbstauskünften basierenden Altersverifikation hin zu proaktiver, verhaltensbasierter Sicherheitsdurchsetzung darstellt. Diese Woche angekündigt, zielt das neue System darauf ab, automatisch Nutzer unter 18 Jahren zu identifizieren und rigorose Inhalts-Schutzmaßnahmen anzuwenden, um den wachsenden globalen Bedenken hinsichtlich der KI-Sicherheit für Minderjährige zu begegnen.

Dieser Schritt stellt einen der bisher aggressivsten Maßnahmen eines Anbieters von Grundmodellen dar, die KI-Erfahrung basierend auf demografischer Inferenz statt alleiniger Nutzerangaben zu kuratieren. Durch die Analyse von Nutzungsmustern beabsichtigt OpenAI, einen „digitalen Perimeter“ zu schaffen, der jüngere Nutzer vor sensiblen Inhalten schützt und gleichzeitig den Weg für einen unverfälschteren „Erwachsenenmodus (Adult Mode)“ für verifizierte Nutzer später in diesem Jahr ebnet.

Der Wechsel zur Verhaltensanalyse

Traditionell haben Online-Plattformen auf Geburtsdatengates gesetzt, die von technisch versierten Teenagern leicht umgangen werden können. OpenAIs neuer Ansatz nutzt ein proprietäres Machine-Learning-Modell, das eine komplexe Matrix aus Konto- und Verhaltenssignalen bewertet, um die Altersgruppe eines Nutzers abzuschätzen.

Laut der mit dem Update veröffentlichten technischen Dokumentation durchsucht das Modell keine privaten Inhalte nach biometrischen Daten, sondern betrachtet Metadaten und Engagement-Muster. Wichtige Signale umfassen:

  • Kontodauer (Account Tenor): Die Lebensdauer des Kontos und historische Nutzungsdaten.
  • Temporale Muster (Temporal Patterns): Analyse der „typischen aktiven Stunden“, die eine Nutzung im Einklang mit Schulzeiten versus beruflichen Arbeitszeiten identifiziert.
  • Sprachliche Komplexität (Linguistic Complexity): Obwohl nicht explizit detailliert, um die Sicherheit des Modells zu wahren, deuten Branchenexperten darauf hin, dass das System wahrscheinlich Syntax und Themenwahl analysiert, um zwischen jugendlichen und erwachsenen Anfragen zu unterscheiden.
  • Konsistenz der angegebenen Altersangabe (Stated Age Consistency): Abgleich des zuvor vom Nutzer angegebenen Alters mit seinem tatsächlichen Plattformverhalten.

Wenn das System eine hohe Wahrscheinlichkeit feststellt, dass ein Nutzer minderjährig ist – oder wenn die Konfidenzbewertung mehrdeutig ist – geht es standardmäßig den „sicheren Weg“ und schaltet das Konto automatisch in einen eingeschränkten Schutzmodus.

Schutzmodus für Minderjährige (Minor Protection Mode): Ein geschützter Bereich

Kern dieses Updates ist die spezifische Reihe von Schutzmaßnahmen, die auf als minderjährig identifizierte Konten angewendet werden. Diese Schutzmaßnahmen gehen über die standardmäßige Inhaltsmoderation hinaus und greifen aktiv in Gespräche ein, die in psychologisch oder physisch riskante Bereiche abdriften.

Der „Schutzmodus für Minderjährige (Minor Protection Mode)“ richtet sich speziell gegen:

  • Selbstverletzung und psychische Gesundheit: Strengere Ablehnungen und sofortige Weiterleitung zu Hilfsressourcen bei Anfragen zu Selbstverletzung, Suizid oder Essstörungen.
  • Grafische Inhalte: Null-Toleranz-Filter für blutige, gewalttätige oder sexuell explizite Beschreibungen.
  • Riskante virale Trends: Sperren von Inhalten, die mit gefährlichen Social-Media-Herausforderungen zusammenhängen, die häufig unter Teenagern kursieren.
  • Rollenspiel-Beschränkungen: Einschränkungen bei AI-Persona-Interaktionen, die Romantik, Gewalt oder extreme zwischenmenschliche Konflikte beinhalten.

OpenAI hat erklärt, dass diese Kategorien in Konsultation mit Kinder-schutzorganisationen und der American Psychological Association definiert wurden, um sicherzustellen, dass die Filter auf entwicklungsbezogene Bedürfnisse ausgerichtet sind und nicht nur der Haftungsvermeidung dienen.

Verifikation und der Weg zum „Erwachsenenmodus (Adult Mode)“

In Anerkennung der Möglichkeit von False Positives — bei denen ein Erwachsener aufgrund seiner Nutzungsgewohnheiten fälschlicherweise als Teenager markiert werden könnte — hat OpenAI einen robusten Remediationsprozess integriert. Nutzer, die glauben, irrtümlich eingeschränkt worden zu sein, können den vollen Zugriff durch Verifizierung ihrer Identität über Persona, einen externen Identitätsverifizierungsdienst, wiederherstellen. Dieser Prozess erfordert typischerweise einen amtlichen Ausweis oder einen biometrischen Selfie-Check, um zu bestätigen, dass der Nutzer über 18 ist.

Diese Verifikationsinfrastruktur legt auch den Grundstein für OpenAIs kommenden Fahrplan. Durch die zuverlässige Segmentierung der Nutzerbasis plant das Unternehmen, einen „Erwachsenenmodus (Adult Mode)“ einzuführen (voraussichtlich Ende Q1 2026), der verifizierten Erwachsenen den Zugriff auf zuvor unter allgemeinen Sicherheitsrichtlinien eingeschränkte Inhalte ermöglicht und die Plattform effektiv in eine „sichere“ Version für die Allgemeinheit und eine „ungefilterte“ Version für verifizierte Erwachsene aufteilt.

Vergleichsübersicht: Sicherheitsebenen

Die folgende Tabelle beschreibt die operativen Unterschiede zwischen der Standarderfahrung für Erwachsene und der neuen geschützten Umgebung für Minderjährige.

Feature Standarderfahrung (verifizierter Erwachsener) Schutzmodus für Minderjährige (Unter 18)
Content Access Voller Zugriff auf allgemeines Wissen, kreatives Schreiben und komplexe Denkaufgaben Eingeschränkter Zugriff; Sperrung sensibler Themen wie grafische Gewalt und riskante Challenges
Intervention Logic Standardmäßige Sicherheitsablehnungen bei illegalen Handlungen Proaktive Weiterleitung an Hilfetelefone bei Themen zu psychischer Gesundheit und Körperbild
Verification Requirement Optional (Erforderlich für den zukünftigen „Erwachsenenmodus“) Keine; wird automatisch basierend auf verhaltensbezogenen Signalen angewendet
Roleplay Capabilities Flexible Persona-Adoption innerhalb von Sicherheitsgrenzen Streng auf edukative oder neutrale Personas beschränkt; kein romantisches/gewalttätiges Rollenspiel
Data Privacy Standardmäßige Datenaufbewahrungs- und Trainingsoptionen Erweiterte Datenschutzeinstellungen; reduzierte Datennutzung für Modelltraining
(standardmäßig strengere Privatsphäre)

Branchenkontext und regulatorischer Druck

Diese Entwicklung kommt zu einem kritischen Zeitpunkt für die KI-Branche. Mit der Umsetzung des Kids Online Safety Act (KOSA) in den Vereinigten Staaten und strengen GDPR-Compliance-Anforderungen in Europa bezüglich Kinderdaten stehen Technologiegiganten unter immensem Druck, zu beweisen, dass sie ihre Plattformen wirksam alterszugänglich machen können.

Das verhaltensbasierte Vorhersagemodell von OpenAI bietet eine potenzielle Lösung für das branchenweite Problem der „Altersverifizierung“, ohne invasive Ausweisprüfungen für jeden einzelnen Nutzer zu verlangen. Gleichzeitig wirft es jedoch Datenschutzfragen darüber auf, wie tief eine KI einen Nutzer „kennen“ muss, um sein Alter zu schätzen.

Kritiker argumentieren, dass verhaltensbasierte Profilierung invasiv sein kann und neurodivergente Erwachsene oder Personen mit unkonventionellen Zeitplänen potenziell benachteiligen könnte, indem sie fälschlich als Minderjährige eingestuft werden. OpenAI hat dem entgegengehalten, dass die Signale „datenschutzschonend“ seien und dass durch die Persona-Integration ein einfacher Abhilfeweg vorhanden sei.

Die Perspektive von Creati.ai

Aus unserer Sicht bei Creati.ai signalisiert dieses Update die Reifung der Generativen KI (Generative AI) von einer experimentellen Technologie zu einem regulierten Verbraucherdienst. So wie soziale Medien gezwungen waren, sich mit ihren Auswirkungen auf die psychische Gesundheit von Teenagern auseinanderzusetzen, bauen KI-Anbieter nun proaktiv die Infrastruktur auf, um diese Risiken zu steuern.

Der Erfolg dieses Altersvorhersagemodells könnte einen neuen Standard für die Branche setzen. Wenn OpenAI hohe Genauigkeit bei geringem Reibungsverlust nachweisen kann, erwarten wir, dass Wettbewerber wie Anthropic und Google DeepMind ihre eigenen verhaltensbasierten Sicherheitsmaßnahmen beschleunigen. Letztlich ermöglicht diese Aufteilung der Nutzerbasis, dass KI-Tools für Fachleute leistungsfähig und vielseitig bleiben, während sie für die nächste Generation digitaler Einheimischer zu sichereren Spielwiesen werden.

Ausgewählt