
OpenAI a officiellement commencé à déployer un modèle sophistiqué de prédiction de l'âge (age prediction model) pour ChatGPT, marquant un virage important du contrôle d'âge basé sur l'auto-déclaration vers une application proactive de la sécurité fondée sur le comportement (behavior-based safety enforcement). Annoncé cette semaine, le nouveau système vise à identifier automatiquement les utilisateurs de moins de 18 ans et à appliquer des protections de contenu strictes, répondant aux préoccupations mondiales croissantes concernant la sécurité des mineurs face à l'IA.
Cette mesure représente l'une des actions les plus agressives à ce jour d'un fournisseur de modèles fondamentaux pour gérer l'expérience IA sur la base d'inférences démographiques plutôt que de se fier uniquement aux informations fournies par l'utilisateur. En analysant les schémas d'utilisation, OpenAI entend créer un « périmètre numérique » qui protège les utilisateurs plus jeunes du contenu sensible tout en ouvrant la voie à un « Mode adulte » plus libre pour les utilisateurs vérifiés plus tard cette année.
Traditionnellement, les plateformes en ligne se sont appuyées sur des contrôles de date de naissance, facilement contournés par des adolescents technophiles. La nouvelle approche d'OpenAI utilise un modèle d'apprentissage automatique propriétaire qui évalue une matrice complexe de signaux au niveau du compte et de signaux comportementaux (behavioral signals) pour estimer la tranche d'âge d'un utilisateur.
Selon la documentation technique publiée avec la mise à jour, le modèle ne scanne pas le contenu privé à la recherche de données biométriques mais examine plutôt les métadonnées et les schémas d'engagement. Les signaux clés incluent :
Lorsque le système détermine une forte probabilité qu'un utilisateur soit mineur — ou lorsque le score de confiance est ambigu — il opte par défaut pour la « voie la plus sûre », en basculant automatiquement le compte vers un mode de protection restreint.
Le noyau de cette mise à jour est l'ensemble spécifique de garde-fous appliqués aux comptes identifiés comme mineurs. Ces protections vont au-delà de la modération de contenu standard, intervenant activement dans les conversations qui s'engagent sur des zones à risque psychologique ou physique.
Le « Mode de protection des mineurs (Minor Protection Mode) » cible spécifiquement :
OpenAI a déclaré que ces catégories ont été définies en consultation avec des organisations de protection de l'enfance et l'American Psychological Association, garantissant que les filtres s'alignent sur les besoins développementaux plutôt que de viser uniquement à éviter des responsabilités juridiques.
Reconnaissant le risque de faux positifs — où un adulte pourrait être signalé comme adolescent en raison de ses habitudes d'utilisation — OpenAI a intégré un processus de remédiation robuste. Les utilisateurs qui estiment avoir été restreints à tort peuvent rétablir l'accès complet en vérifiant leur identité via Persona, un service tiers de vérification d'identité. Ce processus requiert généralement une pièce d'identité gouvernementale ou un selfie biométrique pour confirmer que l'utilisateur a plus de 18 ans.
Cette infrastructure de vérification prépare également la feuille de route d'OpenAI. En segmentant de manière fiable la base d'utilisateurs, la société prévoit d'introduire un « Mode adulte (Adult Mode) » (prévu plus tard au premier trimestre 2026), qui permettra aux adultes vérifiés d'accéder à des contenus précédemment restreints par les lignes directrices générales de sécurité, bifurquant ainsi la plateforme en une version « sûre » pour le public et une version « non filtrée » pour les adultes vérifiés.
Le tableau suivant décrit les différences opérationnelles entre l'expérience standard pour les adultes et le nouvel environnement protégé pour les mineurs.
| Feature | Standard Experience (Verified Adult) | Minor Protection Mode (Under 18) |
|---|---|---|
| Content Access | Accès complet aux connaissances générales, à l'écriture créative et aux tâches de raisonnement complexes | Accès restreint ; blocage des sujets sensibles comme la violence graphique et les défis dangereux |
| Intervention Logic | Refus de sécurité standard pour les actes illégaux | Redirection proactive vers des lignes d'assistance pour les sujets de santé mentale et d'image corporelle |
| Verification Requirement | Optionnel (requis pour le futur « Mode adulte ») | Aucun ; appliqué automatiquement sur la base des signaux comportementaux |
| Roleplay Capabilities | Adoption flexible de personas dans les limites de sécurité | Strictement limité aux personas éducatifs ou neutres ; pas de jeu de rôle romantique/violent |
| Data Privacy | Options standard de conservation des données et d'entraînement | Paramètres de confidentialité renforcés ; utilisation réduite des données pour l'entraînement des modèles (par défaut vers une confidentialité stricte) |
Ce développement intervient à un moment critique pour l'industrie de l'IA. Avec la mise en œuvre du Kids Online Safety Act (KOSA) aux États-Unis et les exigences strictes de conformité au GDPR en Europe concernant les données des enfants, les géants de la tech sont sous une pression immense pour prouver qu'ils peuvent effectivement contrôler l'accès en fonction de l'âge sur leurs plateformes.
Le modèle de prédiction comportementale d'OpenAI offre une solution potentielle au problème généralisé d'« assurance d'âge » sans exiger des vérifications d'identité invasives pour chaque utilisateur. Cependant, il soulève également des questions de confidentialité sur la profondeur de connaissance qu'une IA doit avoir d'un utilisateur pour deviner son âge.
Les critiques soutiennent que le profilage comportemental peut être invasif, pénalisant potentiellement des adultes neurodivergents ou ceux aux horaires non traditionnels en les étiquetant comme mineurs. OpenAI a rétorqué en soulignant la nature « préservant la vie privée » des signaux et la facilité de recours offerte par l'intégration de Persona.
De notre point de vue chez Creati.ai, cette mise à jour signifie la maturation de l'IA générative (Generative AI) d'une technologie expérimentale vers une utilité grand public régulée. Tout comme les plateformes de médias sociaux ont été contraintes de faire face à leur impact sur la santé mentale des adolescents, les fournisseurs d'IA construisent désormais de manière préventive l'infrastructure pour gérer ces risques.
Le succès de ce modèle de prédiction d'âge pourrait établir une nouvelle norme pour l'industrie. Si OpenAI parvient à démontrer une grande précision avec peu de friction, nous prévoyons que des concurrents comme Anthropic et Google DeepMind accéléreront leurs propres mesures de sécurité comportementale. En fin de compte, cette bifurcation de la base d'utilisateurs permet aux outils d'IA de rester puissants et polyvalents pour les professionnels tout en devenant des espaces plus sûrs pour la prochaine génération de natifs du numérique.