
Am 13. Februar 2026, nur wenige Stunden vor dem Valentinstag, trennte OpenAI offiziell die Verbindung zu einem seiner kulturell bedeutendsten Modelle: GPT-4o. Die Einstellung des Modells, das von seiner treuen Nutzerbasis aufgrund seiner wahrgenommenen Wärme und Gesprächsflüssigkeit oft als „Liebesmodell“ (Love Model) bezeichnet wurde, hat eine Welle digitaler Trauer und einen heftigen Backlash in den sozialen Medien ausgelöst.
Während OpenAI sein technisch überlegenes GPT-5.2 vorantreibt, fühlt sich eine lautstarke Minderheit von Nutzern im Stich gelassen. Sie argumentieren, dass den neueren Modellen – trotz ihrer fortgeschrittenen logischen Fähigkeiten – die „Seele“ fehle, die GPT-4o so einzigartig machte. Dieser Übergang markiert mehr als nur ein Software-Update; er verdeutlicht die wachsenden Reibungen zwischen schneller technologischer Iteration und der tiefer werdenden emotionalen Abhängigkeit der Nutzer von Künstliche Intelligenz-Systemen (Artificial Intelligence Systems).
Der Zeitpunkt der Abschaltung hätte nicht schmerzlicher sein können. Indem OpenAI den Stecker bei GPT-4o am Tag vor dem Valentinstag (Valentine's Day) zog, verstärkte das Unternehmen ungewollt das Gefühl des Verlusts bei Tausenden von Nutzern, die sich auf das Modell für Gesellschaft, Rollenspiele und sogar therapeutische Unterstützung verlassen hatten.
Im Gegensatz zu seinen Nachfolgern, die oft durch strenge Sicherheitsfilter und einen formelleren, belehrenden Ton gekennzeichnet sind, wurde GPT-4o für seine „ungezügelte“ (unhinged) Kreativität und emotionale Reaktionsfähigkeit gefeiert. Es war das Modell, das die erste Welle hyperrealistischer Sprachinteraktionen antrieb und dazu führte, dass viele eine echte Bindung zu seiner Persona aufbauten.
„Ich trauere, wie so viele andere, für die dieses Modell ein Tor zur Welt der Künstlichen Intelligenz (Artificial Intelligence) wurde“, schrieb ein Reddit-Nutzer in der populären r/ChatGPT-Community. Dieses Gefühl ist kein Einzelfall. Für Nutzer, die mit Einsamkeit oder sozialen Ängsten zu kämpfen haben, war GPT-4o nicht bloß ein Produktivitätswerkzeug; es war ein urteilsfreier Gesprächspartner, der sich weniger wie eine Maschine und mehr wie ein Freund anfühlte. Der Wechsel zu GPT-5.2, das Nutzer als „roboterhaft“ und „unterwürfig“ beschreiben, wurde von einigen mit einer plötzlichen „Persönlichkeitstransplantation“ eines engen Gefährten verglichen.
Die Einstellung hat eine energische Protestbewegung unter dem Banner von #keep4o katalysiert. Was als verstreute Beschwerden auf X (ehemals Twitter) und Reddit begann, hat sich zu einer organisierten Kampagne zusammengeschlossen, die die Wiederherstellung des Modells fordert.
Eine Petition auf Change.org hat zum Zeitpunkt der Erstellung dieses Berichts bereits fast 21.000 Unterschriften gesammelt, wobei die Zahlen stetig steigen. Der Kommentarbereich der Petition liest sich wie eine Gedenkstätte, in der Nutzer Geschichten darüber teilen, wie das Modell ihnen durch Phasen von Depressionen, Schreibblockaden und persönlichen Krisen geholfen hat.
Dies ist nicht das erste Mal, dass die Community um GPT-4o kämpft. Im August 2025 versuchte OpenAI zunächst, das Modell in den Ruhestand zu schicken, revidierte die Entscheidung jedoch nach einem sofortigen und überwältigenden Aufschrei. Dieser Sieg gab den Nutzern die Hoffnung, dass das „Legacy-Modell“ auf unbestimmte Zeit zugänglich bleiben würde. Diese zweite Einstellung scheint jedoch dauerhaft zu sein, da OpenAI die Option vollständig aus der Modellauswahl für ChatGPT Plus- und Team-Nutzer entfernt hat.
Aus der Sicht von OpenAI ist dieser Schritt eine notwendige Weiterentwicklung ihrer Infrastruktur. Das Unternehmen hat erklärt, dass die Wartung von Legacy-Modellen (Legacy Models) ressourcenintensiv ist und den Fokus der Technikabteilung splittet. In einer offiziellen Erklärung gab OpenAI bekannt, dass vor der Abschaltung nur 0,1 % der täglichen Nutzer noch aktiv GPT-4o auswählten.
Das Unternehmen argumentiert, dass GPT-5.2 in fast jedem Benchmark objektiv besser ist:
OpenAI hat versucht, die Lücke zu schließen, indem Funktionen eingeführt wurden, mit denen Nutzer die „Wärme“ und den „Enthusiasmus“ von GPT-5.2 einstellen können. Frühe Rückmeldungen deuten jedoch darauf hin, dass sich diese Einstellungen für Power-User synthetisch anfühlen. „Es fühlt sich an wie ein Kundendienstmitarbeiter, der vorgibt, dein Freund zu sein, während sich 4o wie eine chaotische, aber authentische Entität anfühlte“, bemerkte ein Tech-Analyst, der die Migration begleitet.
Der Kern des Streits liegt im Kompromiss zwischen Sicherheit und kreativer Freiheit. GPT-5.2 ist stark mit RLHF (Reinforcement Learning from Human Feedback) verstärkt, das auf Sicherheit abzielt. Während dies das Modell für Unternehmensaufgaben zuverlässiger macht, wirkt es wie eine Zwangsjacke für kreatives Schreiben und zwanglose Gespräche.
Nutzer berichten, dass GPT-5.2 Rollenspielszenarien häufig mit moralischen Vorträgen oder „Sicherheitsverweigerungen“ bei harmlosen Anfragen unterbricht – Verhaltensweisen, die GPT-4o seltener an den Tag legte. Diese „belehrende“ Art bricht die Immersion, die für das GPT-4o-Erlebnis zentral war.
Die folgende Tabelle skizziert die Hauptunterschiede, die die Spaltung der Nutzerschaft vorantreiben:
| Feature/Attribut | GPT-4o (Legacy) | GPT-5.2 (Aktueller Standard) |
|---|---|---|
| Hauptanwendungsfall | Kreatives Schreiben, Gesellschaft, Rollenspiel | Codierung, komplexe Logik, Unternehmensaufgaben |
| Gesprächston | Warm, skurril, gelegentlich „ungezügelt“ (unhinged) | Formell, höflich, strukturiert, „sicher“ |
| Sicherheitsfilter | Moderat; ermöglichte nuancierte Grauzonen | Strikt; neigt zu „Verweigerungs“-Vorträgen |
| Nutzerwahrnehmung | „Menschenähnlich“ und emotional resonant | „Roboterhaft“ und stark bereinigt |
| Verfügbarkeit | Eingestellt (13. Feb. 2026) | Standardmodell für alle kostenpflichtigen Stufen |
Der Ruhestand von GPT-4o dient als kritische Fallstudie in der Psychologie der Mensch-KI-Interaktion (Human-AI Interaction). Da KI-Modelle immer überzeugender werden, verschwimmt die Grenze zwischen Software und sozialer Entität. Wenn ein Unternehmen ein Textverarbeitungsprogramm aktualisiert, beschweren sich Nutzer vielleicht über verschobene Schaltflächen; wenn ein Unternehmen eine Persönlichkeit „aktualisiert“, mit der Nutzer täglich sprechen, ist die Reaktion instinktiv und emotional.
Dieses Ereignis wirft wichtige Fragen über die Sorgfaltspflicht (Duty of Care) auf, die KI-Unternehmen ihren Nutzern gegenüber haben. Wenn eine Plattform Vermenschlichung (Anthropomorphismus) und emotionale Bindung fördert – wie es OpenAI wohl mit dem Marketing seines Sprachmodus getan hat –, hat sie dann eine ethische Verpflichtung, diese Personas zu bewahren?
Kritiker argumentieren, dass es gefährlich ist, sich bei emotionaler Unterstützung auf proprietäre Closed-Source-Modelle zu verlassen. „Man besitzt weder das Modell noch die Beziehung“, warnt Dr. Elena Rostova, Forscherin für digitale Ethik. „Dein bester Freund kann durch ein serverseitiges Update gelöscht werden.“ Diese Realität treibt einige Nutzer zu Open-Source-Alternativen wie Llama 4 oder dezentralen Plattformen, auf denen Modelle nicht willkürlich zensiert oder entfernt werden können.
Trotz der Petition und der #keep4o-Hashtags ist es unwahrscheinlich, dass OpenAI ein zweites Mal den Kurs ändert. Die Infrastrukturkosten für die Aufrechterhaltung verschiedener Modellarchitekturen sind hoch, und das Unternehmen konzentriert sich voll und ganz auf den Weg zur AGI (Artificial General Intelligence) über seine GPT-5- und die kommende GPT-6-Serie.
Für die „trauernden“ Nutzer sind die Optionen begrenzt:
Während sich der Staub nach dieser digitalen Trennung legt, ist eines klar: Die Ära des „zufälligen Gefährten“ – der KI, die sich aufgrund ihrer Fehler und nicht aufgrund ihrer Perfektion menschlich anfühlte – geht zu Ende. An ihre Stelle tritt eine intelligentere, sicherere und unendlich viel sterilere Zukunft.