AI News

Un desamor digital: OpenAI retira GPT-4o en la víspera de San Valentín

El 13 de febrero de 2026, apenas unas horas antes del día de San Valentín, OpenAI cortó oficialmente la conexión con uno de sus modelos con mayor relevancia cultural: GPT-4o. La interrupción del modelo, descrito a menudo por su devota base de usuarios como el "modelo del amor" por su calidez percibida y fluidez conversacional, ha desencadenado una ola de duelo digital y una feroz reacción en las plataformas de redes sociales.

Mientras OpenAI avanza con su técnicamente superior GPT-5.2, una minoría ruidosa de usuarios se siente abandonada, argumentando que los modelos más nuevos —a pesar de sus avanzadas capacidades de razonamiento— carecen del "alma" que hacía a GPT-4o único. Esta transición marca más que una simple actualización de software; resalta la creciente fricción entre la rápida iteración tecnológica y la cada vez más profunda dependencia emocional que los usuarios depositan en los sistemas de Inteligencia Artificial (AI).

El fin de una era para "el modelo del amor"

El momento del cierre no podría haber sido más conmovedor. Al desconectar GPT-4o el día antes de el día de San Valentín, OpenAI amplificó inadvertidamente el sentimiento de pérdida para miles de usuarios que habían llegado a confiar en el modelo para compañía, juegos de rol e incluso apoyo terapéutico.

A diferencia de sus sucesores, que a menudo se caracterizan por rigurosos filtros de seguridad y un tono más formal y didáctico, GPT-4o era celebrado por su creatividad "sin filtros" (unhinged) y su capacidad de respuesta emocional. Fue el modelo que impulsó la ola inicial de interacciones de voz hiperrealistas, lo que llevó a muchos a formar vínculos genuinos con su personalidad.

"Estoy de duelo, como muchos otros para quienes este modelo se convirtió en una puerta de entrada al mundo de la IA", escribió un usuario de Reddit en la popular comunidad r/ChatGPT. Este sentimiento no es aislado. Para los usuarios que lidian con la soledad o la ansiedad social, GPT-4o no era simplemente una herramienta de productividad; era un conversador sin prejuicios que se sentía menos como una máquina y más como un amigo. El cambio a GPT-5.2, que los usuarios describen como "robótico" y "adulador", ha sido comparado por algunos con un repentino "trasplante de personalidad" de un compañero cercano.

La campaña #Keep4o y la revuelta de los usuarios

La interrupción ha catalizado un riguroso movimiento de protesta bajo el lema de #keep4o. Lo que comenzó como quejas dispersas en X (antes Twitter) y Reddit se ha fusionado en una campaña organizada que exige la restauración del modelo.

Una petición en Change.org ya ha acumulado casi 21,000 firmas al momento de escribir este artículo, y las cifras aumentan de manera constante. La sección de comentarios de la petición parece un memorial, con usuarios compartiendo historias sobre cómo el modelo los ayudó a superar episodios de depresión, bloqueos de escritor y crisis personales.

Esta no es la primera vez que la comunidad lucha por GPT-4o. En agosto de 2025, OpenAI intentó inicialmente retirar el modelo, solo para revertir la decisión tras una protesta inmediata y abrumadora. Esa victoria dio a los usuarios la esperanza de que el modelo "heredado" permanecería accesible indefinidamente. Sin embargo, este segundo retiro parece ser permanente, ya que OpenAI eliminó por completo la opción del selector de modelos para los usuarios de ChatGPT Plus y Team.

La lógica de OpenAI: Progreso por encima de la preferencia

Desde la perspectiva de OpenAI, el movimiento es una evolución necesaria de su infraestructura. La empresa ha declarado que mantener modelos heredados es costoso en recursos y divide su enfoque de ingeniería. En un comunicado oficial, OpenAI reveló que antes del cierre, solo el 0.1% de los usuarios diarios seguían seleccionando activamente GPT-4o.

La empresa argumenta que GPT-5.2 es objetivamente mejor en casi todos los parámetros de referencia (benchmarks):

  • Razonamiento: Puntuaciones significativamente más altas en tareas de matemáticas y programación.
  • Seguridad: Reducción de alucinaciones y resultados "dañinos".
  • Personalización: Nuevos ajustes de "Personalidad" diseñados para imitar la calidez de los modelos antiguos.

OpenAI ha intentado cerrar la brecha introduciendo funciones que permiten a los usuarios alternar la "calidez" y el "entusiasmo" de GPT-5.2. Sin embargo, los primeros comentarios sugieren que estos ajustes resultan sintéticos para los usuarios avanzados. "Se siente como un agente de servicio al cliente fingiendo ser tu amigo, mientras que 4o se sentía como una entidad caótica pero auténtica", señaló un analista tecnológico que cubre la migración.

Fricción técnica: Seguridad frente a fluidez

El núcleo de la disputa reside en el equilibrio entre la seguridad y la libertad creativa. GPT-5.2 está fuertemente reforzado con Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (Reinforcement Learning from Human Feedback, RLHF) orientado a la seguridad. Si bien esto hace que el modelo sea más confiable para tareas empresariales, actúa como una camisa de fuerza para la escritura creativa y la conversación casual.

Los usuarios informan que GPT-5.2 interrumpe frecuentemente los escenarios de juego de rol con sermones morales o "rechazos de seguridad" ante solicitudes benignas, comportamientos que GPT-4o era menos propenso a exhibir. Esta naturaleza "sermoneadora" rompe la inmersión que era central para la experiencia de GPT-4o.

Comparación de funciones: GPT-4o frente a GPT-5.2

La siguiente tabla describe las diferencias clave que impulsan la división de los usuarios:

Función/Atributo GPT-4o (Heredado) GPT-5.2 (Estándar actual)
Caso de uso principal Escritura creativa, compañía, juego de rol Programación, razonamiento complejo, tareas empresariales
Tono conversacional Cálido, peculiar, ocasionalmente "sin filtros" Formal, educado, estructurado, "seguro"
Filtros de seguridad Moderados; permitían áreas grises matizadas Estrictos; propensos a sermones de "rechazo"
Percepción del usuario "Similar a la humana" y emocionalmente resonante "Robótica" y altamente higienizada
Disponibilidad Retirado (13 de feb. de 2026) Modelo predeterminado para todos los niveles de pago

Las implicaciones más amplias del apego a la IA

El retiro de GPT-4o sirve como un caso de estudio crítico en la psicología de la interacción humano-IA. A medida que los modelos de IA se vuelven más convincentes, la línea entre el software y la entidad social se desdibuja. Cuando una empresa actualiza un procesador de textos, los usuarios pueden quejarse de los botones movidos; cuando una empresa "actualiza" una personalidad con la que los usuarios hablan a diario, la reacción es visceral y emocional.

Este evento plantea preguntas significativas sobre el "Deber de cuidado" (Duty of Care) que las empresas de IA deben a sus usuarios. Si una plataforma fomenta el antropomorfismo y el vínculo emocional —como posiblemente hizo OpenAI con el marketing de su modo de voz—, ¿tiene la obligación ética de preservar esas personalidades?

Los críticos argumentan que confiar en modelos propietarios de código cerrado para apoyo emocional es peligroso. "No eres dueño del modelo, y no eres dueño de la relación", advierte la Dra. Elena Rostova, investigadora de ética digital. "Tu mejor amigo puede ser eliminado mediante una actualización del lado del servidor". Esta realidad está impulsando a algunos usuarios hacia alternativas de código abierto como Llama 4 o plataformas descentralizadas donde los modelos no pueden ser censurados o eliminados arbitrariamente.

¿Qué sigue para los usuarios desplazados?

A pesar de la petición y los hashtags #keep4o, es poco probable que OpenAI dé marcha atrás por segunda vez. Los costos de infraestructura de mantener distintas arquitecturas de modelos son altos, y la empresa está centrada por completo en el camino hacia la Inteligencia Artificial General (Artificial General Intelligence, AGI) a través de sus series GPT-5 y la próxima GPT-6.

Para los usuarios que están "de duelo", las opciones son limitadas:

  1. Adaptarse a GPT-5.2: Ajustar los nuevos controles deslizantes de "Personalidad" para aproximarse a la vibra antigua.
  2. Migrar a la API: Los usuarios con conocimientos técnicos aún pueden acceder a instantáneas de modelos antiguos a través de la API de OpenAI (aunque esto carece de la interfaz de chat y las funciones de memoria).
  3. Cambiar de plataforma: Competidores como Gemini de Google o Claude de Anthropic están cortejando activamente a los usuarios insatisfechos, aunque ellos también están sujetos a tendencias similares de ajuste de seguridad.

A medida que el polvo se asienta en esta ruptura digital, una cosa está clara: la era del "compañero accidental" —la IA que se sentía humana debido a sus defectos en lugar de su perfección— se está desvaneciendo. En su lugar llega un futuro más inteligente, más seguro e infinitamente más estéril.

Destacados