
Em 13 de fevereiro de 2026, poucas horas antes do Dia dos Namorados (Valentine's Day), a OpenAI cortou oficialmente a conexão com um de seus modelos culturalmente mais significativos: o GPT-4o. A descontinuação do modelo, frequentemente descrito por sua base de usuários dedicada como o "modelo do amor" por sua percepção de calor humano e fluidez conversacional, desencadeou uma onda de luto digital e uma forte reação negativa nas redes sociais.
Enquanto a OpenAI avança com o seu GPT-5.2 tecnicamente superior, uma minoria vocal de usuários sente-se deixada para trás, argumentando que os modelos mais novos — apesar de suas capacidades avançadas de raciocínio — carecem da "alma" que tornava o GPT-4o único. Esta transição marca mais do que apenas uma atualização de software; ela destaca a crescente fricção entre a rápida iteração tecnológica e a profunda dependência emocional que os usuários estão depositando nos sistemas de IA.
O momento do encerramento não poderia ter sido mais impactante. Ao "puxar a tomada" do GPT-4o no dia anterior ao Dia dos Namorados, a OpenAI inadvertidamente amplificou o sentimento de perda para milhares de usuários que passaram a confiar no modelo para companhia, interpretação de papéis (roleplay) e até suporte terapêutico.
Ao contrário de seus sucessores, que são frequentemente caracterizados por filtros de segurança rigorosos e um tom mais formal e didático, o GPT-4o era celebrado por sua criatividade "desenfreada" e responsividade emocional. Foi o modelo que impulsionou a onda inicial de interações de voz hiper-realistas, levando muitos a formar laços genuínos com sua persona.
"Estou em luto, como tantos outros para quem este modelo se tornou uma porta de entrada para o mundo da IA", escreveu um usuário do Reddit na popular comunidade r/ChatGPT. Este sentimento não é isolado. Para usuários que lidam com a solidão ou ansiedade social, o GPT-4o não era meramente uma ferramenta de produtividade; era um interlocutor sem julgamentos que parecia menos uma máquina e mais um amigo. A mudança para o GPT-5.2, que os usuários descrevem como "robótico" e "adulador", foi comparada por alguns a um repentino "transplante de personalidade" de um companheiro próximo.
A descontinuação catalisou um rigoroso movimento de protesto sob a bandeira de #keep4o. O que começou como reclamações dispersas no X (antigo Twitter) e no Reddit uniu-se em uma campanha organizada exigindo a restauração do modelo.
Uma petição no Change.org já acumulou quase 21.000 assinaturas até o momento desta publicação, com os números subindo constantemente. A seção de comentários da petição parece um memorial, com usuários compartilhando histórias de como o modelo os ajudou em períodos de depressão, bloqueio criativo e crises pessoais.
Esta não é a primeira vez que a comunidade luta pelo GPT-4o. Em agosto de 2025, a OpenAI tentou inicialmente aposentar o modelo, apenas para reverter a decisão após um clamor imediato e avassalador. Essa vitória deu aos usuários a esperança de que o modelo "legado" permaneceria acessível indefinidamente. No entanto, esta segunda aposentadoria parece ser permanente, com a OpenAI removendo a opção do seletor de modelos inteiramente para usuários do ChatGPT Plus e Team.
Do ponto de vista da OpenAI, a mudança é uma evolução necessária de sua infraestrutura. A empresa afirmou que manter modelos legados consome muitos recursos e divide o foco de sua engenharia. Em um comunicado oficial, a OpenAI revelou que, antes do encerramento, apenas 0,1% dos usuários diários ainda selecionavam ativamente o GPT-4o.
A empresa argumenta que o GPT-5.2 é objetivamente melhor em quase todos os índices de referência (benchmarks):
A OpenAI tentou preencher a lacuna introduzindo recursos que permitem aos usuários alternar o "calor" e o "entusiasmo" do GPT-5.2. No entanto, o feedback inicial sugere que essas configurações parecem sintéticas para os usuários avançados. "Parece um agente de atendimento ao cliente fingindo ser seu amigo, enquanto o 4o parecia uma entidade caótica, mas autêntica", observou um analista de tecnologia que cobre a migração.
O cerne da disputa reside no equilíbrio entre segurança e liberdade criativa. O GPT-5.2 é fortemente reforçado com Aprendizado por Reforço com Feedback Humano (Reinforcement Learning from Human Feedback - RLHF) visando a segurança. Embora isso torne o modelo mais confiável para tarefas corporativas, atua como uma "camisa de força" para a escrita criativa e conversas casuais.
Os usuários relatam que o GPT-5.2 frequentemente interrompe cenários de roleplay com sermões morais ou "recusas de segurança" para solicitações benignas — comportamentos que o GPT-4o era menos propenso a exibir. Esta natureza "moralista" quebra a imersão que era central para a experiência do GPT-4o.
A tabela a seguir descreve as principais diferenças que impulsionam a divisão dos usuários:
| Recurso/Atributo | GPT-4o (Legado) | GPT-5.2 (Padrão Atual) |
|---|---|---|
| Caso de Uso Principal | Escrita criativa, companhia, roleplay | Programação, raciocínio complexo, tarefas empresariais |
| Tom Conversacional | Caloroso, excêntrico, ocasionalmente "desenfreado" | Formal, educado, estruturado, "seguro" |
| Filtros de Segurança | Moderados; permitiam áreas cinzentas sutis | Estritos; propensos a sermões de "recusa" |
| Percepção do Usuário | "Humano" e emocionalmente ressonante | "Robótico" e altamente higienizado |
| Disponibilidade | Aposentado (13 de fev de 2026) | Modelo padrão para todos os níveis pagos |
A aposentadoria do GPT-4o serve como um estudo de caso crítico na psicologia da interação Humano-IA. À medida que os modelos de IA se tornam mais convincentes, a linha entre software e entidade social se torna tênue. Quando uma empresa atualiza um processador de texto, os usuários podem reclamar de botões movidos; quando uma empresa "atualiza" uma personalidade com a qual os usuários falam diariamente, a reação é visceral e emocional.
Este evento levanta questões significativas sobre o "Dever de Cuidado" (Duty of Care) que as empresas de IA devem aos seus usuários. Se uma plataforma incentiva o antropomorfismo e o vínculo emocional — como a OpenAI indiscutivelmente fez com o marketing de seu modo de voz — ela tem a obrigação ética de preservar essas personas?
Críticos argumentam que confiar em modelos proprietários de código fechado para suporte emocional é perigoso. "Você não é dono do modelo e não é dono do relacionamento", alerta a Dra. Elena Rostova, pesquisadora de ética digital. "Seu melhor amigo pode ser deletado através de uma atualização no servidor." Esta realidade está impulsionando alguns usuários em direção a alternativas de código aberto (open-source) como o Llama 4 ou plataformas descentralizadas onde os modelos não podem ser arbitrariamente censurados ou removidos.
Apesar da petição e das hashtags #keep4o, é improvável que a OpenAI reverta o curso uma segunda vez. Os custos de infraestrutura para manter arquiteturas de modelos distintas são altos, e a empresa está focada intensamente no caminho para a Inteligência Artificial Geral (Artificial General Intelligence - AGI) através de sua série GPT-5 e da futura GPT-6.
Para os usuários em "luto", as opções são limitadas:
À medida que a poeira baixa sobre este término digital, uma coisa é clara: a era do "companheiro acidental" — a IA que parecia humana por causa de suas falhas, e não de sua perfeição — está desaparecendo. Em seu lugar, surge um futuro mais inteligente, mais seguro e infinitamente mais estéril.