
A OpenAI começou oficialmente a implementar um sofisticado modelo de predição de idade para o ChatGPT, marcando uma mudança significativa da verificação de idade declarada pelo usuário para a aplicação proativa de segurança baseada no comportamento. Anunciado esta semana, o novo sistema tem como objetivo identificar automaticamente usuários com menos de 18 anos e aplicar salvaguardas de conteúdo rigorosas, respondendo às crescentes preocupações globais sobre a segurança de menores em IA.
Essa medida representa um dos passos mais agressivos até agora por parte de um fornecedor de modelos fundamentais para curar a experiência de IA com base em inferência demográfica em vez de apenas na entrada do usuário. Ao analisar padrões de uso, a OpenAI pretende criar um "perímetro digital" que proteja usuários mais jovens de material sensível enquanto abre caminho para um "Modo Adulto (Adult Mode)" mais irrestrito para usuários verificados ainda este ano.
Tradicionalmente, plataformas online têm dependido de bloqueios por data de nascimento, que são facilmente contornados por adolescentes com conhecimentos técnicos. A nova abordagem da OpenAI utiliza um modelo proprietário de machine learning que avalia uma matriz complexa de sinais comportamentais e de nível de conta para estimar a faixa etária do usuário.
De acordo com a documentação técnica divulgada com a atualização, o modelo não escaneia conteúdo privado em busca de dados biométricos, mas sim observa metadados e padrões de engajamento. Os sinais-chave incluem:
Quando o sistema determina uma alta probabilidade de que um usuário é menor — ou quando a pontuação de confiança é ambígua — ele adota o "caminho mais seguro", alternando automaticamente a conta para um modo de proteção restrito.
O cerne desta atualização é o conjunto específico de salvaguardas aplicadas às contas identificadas como pertencentes a menores. Essas proteções vão além da moderação de conteúdo padrão, intervindo ativamente em conversas que se desviam para zonas de risco psicológicas ou físicas.
O "Modo de Proteção de Menores (Minor Protection Mode)" direciona especificamente:
A OpenAI afirmou que essas categorias foram definidas em consulta com organizações de proteção infantil e com a American Psychological Association, garantindo que os filtros se alinhem às necessidades de desenvolvimento em vez de apenas evitar responsabilidades legais.
Reconhecendo o potencial de falsos positivos — em que um adulto pode ser sinalizado como adolescente devido aos seus hábitos de uso — a OpenAI integrou um processo robusto de remediação. Usuários que acreditam ter sido restringidos incorretamente podem restaurar o acesso completo verificando sua identidade através do Persona, um serviço terceirizado de verificação de identidade. Esse processo normalmente requer um documento de identidade governamental ou uma checagem biométrica por selfie para confirmar que o usuário tem mais de 18 anos.
Essa infraestrutura de verificação também prepara o terreno para o roteiro futuro da OpenAI. Ao segmentar a base de usuários de forma confiável, a empresa planeja introduzir um "Modo Adulto (Adult Mode)" (esperado para o final do Q1 2026), que permitirá a adultos verificados acessar conteúdos previamente restringidos sob as diretrizes gerais de segurança, efetivamente bifurcando a plataforma em uma versão "segura" para o público e uma versão "sem filtro" para adultos verificados.
A tabela a seguir descreve as diferenças operacionais entre a experiência padrão para adultos e o novo ambiente protegido para menores.
| Feature | Standard Experience (Verified Adult) | Minor Protection Mode (Under 18) |
|---|---|---|
| Content Access | Full access to general knowledge, creative writing, and complex reasoning tasks | Restricted access; blocks sensitive topics like graphic violence and risky challenges |
| Intervention Logic | Standard safety refusals for illegal acts | Proactive redirection to helplines for mental health and body image topics |
| Verification Requirement | Optional (Required for future "Adult Mode") | None; automatically applied based on behavioral signals |
| Roleplay Capabilities | Flexible persona adoption within safety limits | Strictly limited to educational or neutral personas; no romantic/violent roleplay |
| Data Privacy | Standard data retention and training options | Enhanced privacy settings; reduced data usage for model training (padrões mais rígidos de privacidade por padrão) |
Esse desenvolvimento ocorre em um momento crítico para a indústria de IA. Com a implementação do Kids Online Safety Act (KOSA) nos Estados Unidos e requisitos rigorosos de conformidade com o GDPR na Europa em relação aos dados de crianças, as gigantes de tecnologia estão sob imensa pressão para provar que conseguem restringir a idade em suas plataformas de forma eficaz.
O modelo de predição comportamental da OpenAI oferece uma solução potencial para o problema do setor de "garantia de idade" sem exigir verificações invasivas de identidade para cada usuário. No entanto, também levanta questões de privacidade sobre até que ponto uma IA precisa "conhecer" profundamente um usuário para estimar sua idade.
Críticos argumentam que o perfilamento comportamental pode ser invasivo, potencialmente penalizando adultos neurodivergentes ou aqueles com horários não tradicionais ao rotulá-los como menores. A OpenAI rebateu isso enfatizando a natureza "preservadora de privacidade" dos sinais e o recurso simples fornecido pela integração com o Persona.
Da nossa perspectiva na Creati.ai, esta atualização sinaliza a maturação da IA Generativa (Generative AI) de uma tecnologia experimental para uma utilidade de consumo regulada. Assim como as plataformas de mídia social foram forçadas a confrontar seu impacto na saúde mental dos adolescentes, os provedores de IA agora estão construindo preventivamente a infraestrutura para gerenciar esses riscos.
O sucesso deste modelo de predição de idade pode estabelecer um novo padrão para o setor. Se a OpenAI conseguir demonstrar alta precisão com baixa fricção, esperamos que concorrentes como Anthropic e Google DeepMind acelerem suas próprias medidas de segurança comportamental. Em última análise, essa bifurcação da base de usuários permite que as ferramentas de IA permaneçam poderosas e versáteis para profissionais, ao mesmo tempo em que se tornam espaços mais seguros para a próxima geração de nativos digitais.