
OpenAI ha comenzado oficialmente a desplegar un sofisticado modelo de predicción de edad basada en el comportamiento(behavioral age prediction)para ChatGPT, marcando un giro significativo desde la verificación de edad autodeclarada hacia una aplicación proactiva de medidas de seguridad basadas en el comportamiento. Anunciado esta semana, el nuevo sistema tiene como objetivo identificar automáticamente a los usuarios menores de 18 años y aplicar salvaguardas de contenido estrictas, abordando las crecientes preocupaciones globales sobre la seguridad de la IA para menores.
Este movimiento representa uno de los pasos más agresivos hasta la fecha por parte de un proveedor de modelos fundamentales para gestionar la experiencia de IA en función de inferencias demográficas en lugar de solo la información proporcionada por el usuario. Analizando los patrones de uso, OpenAI pretende crear un "perímetro digital" que proteja a los usuarios más jóvenes de material sensible, al tiempo que allana el camino para un "Modo Adulto(Adult Mode)" más libre para usuarios verificados más adelante este año.
Tradicionalmente, las plataformas en línea han confiado en puertas de fecha de nacimiento, que son fácilmente eludibles por adolescentes con conocimientos técnicos. El nuevo enfoque de OpenAI utiliza un modelo de aprendizaje automático propietario que evalúa una matriz compleja de señales a nivel de cuenta y comportamentales para estimar la franja de edad del usuario.
Según la documentación técnica publicada con la actualización, el modelo no escanea contenido privado en busca de datos biométricos, sino que observa metadatos y patrones de interacción. Señales clave incluyen:
Cuando el sistema determina una alta probabilidad de que un usuario sea menor de edad —o cuando la puntuación de confianza es ambigua—, adopta la "ruta más segura", cambiando automáticamente la cuenta a un modo de protección restringida.
El núcleo de esta actualización es el conjunto específico de medidas de protección aplicadas a las cuentas identificadas como menores. Estas protecciones van más allá de la moderación de contenido estándar, interviniendo activamente en conversaciones que se desvían hacia zonas de riesgo psicológico o físico.
El "Modo de Protección para Menores(Minor Protection Mode)" se dirige específicamente a:
OpenAI ha declarado que estas categorías fueron definidas en consulta con organizaciones de seguridad infantil y la American Psychological Association, asegurando que los filtros se alineen con las necesidades del desarrollo y no solo con evitar responsabilidades legales.
Reconociendo el potencial de falsos positivos —donde un adulto podría ser marcado como adolescente debido a sus hábitos de uso— OpenAI ha integrado un proceso robusto de remediación. Los usuarios que crean haber sido restringidos por error pueden restaurar el acceso completo verificando su identidad a través de Persona, un servicio de verificación de identidad de terceros. Este proceso normalmente requiere un documento de identidad gubernamental o una verificación mediante selfie biométrica para confirmar que el usuario tiene más de 18 años.
Esta infraestructura de verificación también sienta las bases para la hoja de ruta de OpenAI. Al segmentar la base de usuarios de manera fiable, la empresa planea introducir un "Modo Adulto(Adult Mode)" (esperado más adelante en el primer trimestre de 2026), que permitirá a los adultos verificados acceder a contenido previamente restringido bajo las directrices generales de seguridad, bifurcando efectivamente la plataforma en una versión "segura" para el público y una versión "sin filtros" para adultos verificados.
La siguiente tabla describe las diferencias operativas entre la experiencia estándar para adultos y el nuevo entorno protegido para menores.
| Feature | Standard Experience (Verified Adult) | Minor Protection Mode (Under 18) |
|---|---|---|
| Content Access | Full access to general knowledge, creative writing, and complex reasoning tasks | Restricted access; blocks sensitive topics like graphic violence and risky challenges |
| Intervention Logic | Standard safety refusals for illegal acts | Proactive redirection to helplines for mental health and body image topics |
| Verification Requirement | Optional (Required for future "Adult Mode") | None; automatically applied based on behavioral signals |
| Roleplay Capabilities | Flexible persona adoption within safety limits | Strictly limited to educational or neutral personas; no romantic/violent roleplay |
| Data Privacy | Standard data retention and training options | Enhanced privacy settings; reduced data usage for model training (defaults to stricter privacy) |
Este desarrollo llega en un momento crítico para la industria de la IA. Con la implementación de la Kids Online Safety Act (KOSA) en Estados Unidos y requisitos estrictos de cumplimiento del GDPR en Europa respecto a los datos de menores, los gigantes tecnológicos están bajo una inmensa presión para demostrar que pueden poner salvaguardas de edad efectivas en sus plataformas.
El modelo de predicción basada en el comportamiento de OpenAI ofrece una posible solución al problema generalizado de la "verificación de edad" sin requerir controles de identidad invasivos para cada usuario. Sin embargo, también plantea preguntas de privacidad sobre qué tan profundamente debe "conocer" una IA a un usuario para adivinar su edad.
Los críticos argumentan que el perfilado conductual puede ser invasivo, penalizando potencialmente a adultos neurodivergentes o a quienes tienen horarios no tradicionales al etiquetarlos como menores. OpenAI ha respondido enfatizando la naturaleza "preservadora de la privacidad" de las señales y el fácil recurso proporcionado por la integración con Persona.
Desde nuestra perspectiva en Creati.ai, esta actualización significa la maduración de la IA generativa(Generative AI)de una tecnología experimental a una utilidad de consumo regulada. Al igual que las plataformas de redes sociales tuvieron que enfrentarse a su impacto en la salud mental de los adolescentes, los proveedores de IA ahora construyen preventivamente la infraestructura para gestionar estos riesgos.
El éxito de este modelo de predicción de edad podría establecer un nuevo estándar para la industria. Si OpenAI puede demostrar una alta precisión con baja fricción, esperamos que competidores como Anthropic y Google DeepMind aceleren sus propias medidas de seguridad basadas en el comportamiento. En última instancia, esta bifurcación de la base de usuarios permite que las herramientas de IA sigan siendo potentes y versátiles para profesionales, al tiempo que se convierten en espacios más seguros para la próxima generación de nativos digitales.