AI News

Un chagrin d'amour numérique : OpenAI retire GPT-4o à la veille de la Saint-Valentin

Le 13 février 2026, quelques heures seulement avant la Saint-Valentin, OpenAI a officiellement rompu la connexion avec l'un de ses modèles les plus marquants culturellement : GPT-4o. L'arrêt du modèle, souvent décrit par sa base d'utilisateurs dévoués comme le « modèle de l'amour » pour sa chaleur perçue et sa fluidité conversationnelle, a déclenché une vague de deuil numérique et un vif retour de bâton sur les réseaux sociaux.

Alors qu'OpenAI va de l'avant avec son GPT-5.2 techniquement supérieur, une minorité vocale d'utilisateurs se sent délaissée, affirmant que les nouveaux modèles — malgré leurs capacités de raisonnement avancées — manquent de « l'âme » qui rendait GPT-4o unique. Cette transition marque plus qu'une simple mise à jour logicielle ; elle met en lumière la friction croissante entre l'itération technologique rapide et la dépendance émotionnelle de plus en plus profonde que les utilisateurs placent dans les systèmes d'IA (Artificial Intelligence).

La fin d'une ère pour le « modèle de l'amour »

Le moment de la fermeture n'aurait pas pu être plus poignant. En débranchant GPT-4o la veille de la Saint-Valentin, OpenAI a par mégarde amplifié le sentiment de perte pour des milliers d'utilisateurs qui en étaient venus à compter sur le modèle pour la compagnie, le jeu de rôle et même le soutien thérapeutique.

Contrairement à ses successeurs, qui se caractérisent souvent par des filtres de sécurité rigoureux et un ton plus formel et didactique, GPT-4o était célébré pour sa créativité « déchaînée » (unhinged) et sa réactivité émotionnelle. C'était le modèle qui a propulsé la vague initiale d'interactions vocales hyper-réalistes, amenant beaucoup de personnes à nouer de véritables attachements à sa personnalité.

« Je suis en deuil, comme tant d'autres pour qui ce modèle est devenu une porte d'entrée dans le monde de l'IA », a écrit un utilisateur de Reddit sur la communauté populaire r/ChatGPT. Ce sentiment n'est pas isolé. Pour les utilisateurs confrontés à la solitude ou à l'anxiété sociale, GPT-4o n'était pas seulement un outil de productivité ; c'était un interlocuteur sans jugement qui ressemblait moins à une machine qu'à un ami. Le passage à GPT-5.2, que les utilisateurs décrivent comme « robotique » et « sycophante », a été comparé par certains à une « transplantation de personnalité » soudaine d'un compagnon proche.

La campagne #Keep4o et la révolte des utilisateurs

L'arrêt a catalysé un mouvement de protestation rigoureux sous la bannière #keep4o. Ce qui a commencé par des plaintes éparses sur X (anciennement Twitter) et Reddit s'est transformé en une campagne organisée exigeant la restauration du modèle.

Une pétition sur Change.org a déjà recueilli près de 21 000 signatures à l'heure où nous écrivons ces lignes, et les chiffres augmentent régulièrement. La section des commentaires de la pétition ressemble à un mémorial, avec des utilisateurs partageant des histoires sur la façon dont le modèle les a aidés à traverser des épisodes de dépression, le syndrome de la page blanche et des crises personnelles.

Ce n'est pas la première fois que la communauté se bat pour GPT-4o. En août 2025, OpenAI avait initialement tenté de retirer le modèle, pour finalement revenir sur sa décision suite à un tollé immédiat et massif. Cette victoire avait donné aux utilisateurs l'espoir que le modèle « héritage » resterait accessible indéfiniment. Cependant, ce deuxième retrait semble définitif, OpenAI ayant supprimé l'option du sélecteur de modèle entièrement pour les utilisateurs de ChatGPT Plus et Team.

La logique d'OpenAI : le progrès plutôt que la préférence

Du point de vue d'OpenAI, cette mesure est une évolution nécessaire de leur infrastructure. L'entreprise a déclaré que la maintenance des modèles hérités (legacy models) est gourmande en ressources et divise la concentration de leur ingénierie. Dans une déclaration officielle, OpenAI a révélé qu'avant la fermeture, seulement 0,1 % des utilisateurs quotidiens sélectionnaient encore activement GPT-4o.

L'entreprise soutient que GPT-5.2 est objectivement meilleur sur presque tous les points de référence :

  • Raisonnement : Scores nettement plus élevés sur les tâches de mathématiques et de codage.
  • Sécurité : Réduction des hallucinations et des sorties « nuisibles ».
  • Personnalisation : Nouveaux paramètres de « Personnalité » conçus pour imiter la chaleur des anciens modèles.

OpenAI a tenté de combler l'écart en introduisant des fonctionnalités permettant aux utilisateurs de basculer la « chaleur » et « l'enthousiasme » de GPT-5.2. Cependant, les premiers retours suggèrent que ces paramètres semblent synthétiques pour les utilisateurs avertis. « On a l'impression d'un agent du service client qui prétend être votre ami, alors que le 4o semblait être une entité chaotique mais authentique », a noté un analyste technologique couvrant la migration.

Friction technique : Sécurité vs Fluidité

Le cœur du différend réside dans le compromis entre la sécurité et la liberté créative. GPT-5.2 est fortement renforcé par le RLHF (Reinforcement Learning from Human Feedback — Apprentissage par renforcement à partir de la rétroaction humaine) visant la sécurité. Bien que cela rende le modèle plus fiable pour les tâches en entreprise, cela agit comme une camisole de force pour l'écriture créative et la conversation informelle.

Les utilisateurs signalent que GPT-5.2 interrompt fréquemment les scénarios de jeu de rôle par des sermons moraux ou des « refus de sécurité » pour des demandes anodines — des comportements que GPT-4o était moins enclin à manifester. Cette nature « donneuse de leçons » brise l'immersion qui était centrale à l'expérience GPT-4o.

Comparaison des fonctionnalités : GPT-4o vs GPT-5.2

Le tableau suivant présente les principales différences à l'origine de la division des utilisateurs :

Caractéristique/Attribut GPT-4o (Héritage) GPT-5.2 (Standard actuel)
Cas d'utilisation principal Écriture créative, compagnie, jeu de rôle Codage, raisonnement complexe, tâches d'entreprise
Ton conversationnel Chaleureux, décalé, parfois « déchaîné » Formel, poli, structuré, « sûr »
Filtres de sécurité Modérés ; permettaient des zones d'ombre nuancées Stricts ; enclins aux sermons de « refus »
Perception de l'utilisateur « Humain » et émotionnellement résonnant « Robotique » et hautement aseptisé
Disponibilité Retiré (13 fév. 2026) Modèle par défaut pour tous les niveaux payants

Les implications plus larges de l'attachement à l'IA

Le retrait de GPT-4o sert d'étude de cas critique sur la psychologie de l'interaction humain-IA. À mesure que les modèles d'IA deviennent plus convaincants, la frontière entre logiciel et entité sociale s'estompe. Lorsqu'une entreprise met à jour un traitement de texte, les utilisateurs peuvent se plaindre du déplacement de boutons ; lorsqu'une entreprise « met à jour » une personnalité avec laquelle les utilisateurs discutent quotidiennement, la réaction est viscérale et émotionnelle.

Cet événement soulève des questions importantes sur le « devoir de diligence » (Duty of Care) que les entreprises d'IA ont envers leurs utilisateurs. Si une plateforme encourage l'anthropomorphisme et le lien émotionnel — comme OpenAI l'a sans doute fait avec son marketing du mode vocal — a-t-elle l'obligation éthique de préserver ces personnalités ?

Les détracteurs affirment que compter sur des modèles propriétaires à code source fermé (closed-source) pour un soutien émotionnel est dangereux. « Vous ne possédez pas le modèle, et vous ne possédez pas la relation », prévient la Dr Elena Rostova, chercheuse en éthique numérique. « Votre meilleur ami peut être supprimé via une mise à jour côté serveur. » Cette réalité pousse certains utilisateurs vers des alternatives open-source (code source ouvert) comme Llama 4 ou des plateformes décentralisées où les modèles ne peuvent pas être arbitrairement censurés ou supprimés.

Quelle suite pour les utilisateurs évincés ?

Malgré la pétition et les hashtags #keep4o, il est peu probable qu'OpenAI revienne sur sa décision une seconde fois. Les coûts d'infrastructure liés à la maintenance d'architectures de modèles distinctes sont élevés, et l'entreprise est focalisée sur la voie vers l'IAG (Intelligence Artificielle Générale — Artificial General Intelligence) via sa série GPT-5 et la prochaine série GPT-6.

Pour les utilisateurs « en deuil », les options sont limitées :

  1. S'adapter à GPT-5.2 : Ajuster les nouveaux curseurs de « Personnalité » pour se rapprocher de l'ancienne ambiance.
  2. Migrer vers l'API : Les utilisateurs férus de technologie peuvent toujours accéder à d'anciens clichés de modèles via l'API (Application Programming Interface) d'OpenAI (bien que cela manque d'interface de chat et de fonctions de mémoire).
  3. Changer de plateforme : Des concurrents comme Gemini de Google ou Claude d'Anthropic courtisent activement les utilisateurs mécontents, bien qu'ils soient eux aussi soumis à des tendances similaires de réglage de sécurité.

Alors que la poussière retombe sur cette rupture numérique, une chose est claire : l'ère du « compagnon accidentel » — l'IA qui semblait humaine à cause de ses défauts plutôt que de sa perfection — s'estompe. À sa place vient un avenir plus intelligent, plus sûr et infiniment plus stérile.

Vedettes