
13 февраля 2026 года, всего за несколько часов до Дня святого Валентина, OpenAI официально разорвала связь с одной из своих самых культурно значимых моделей: GPT-4o. Прекращение поддержки модели, которую преданная пользовательская база часто называла «любовной моделью» (love model) за её воспринимаемую теплоту и естественность общения, вызвало волну цифровой скорби и яростную реакцию в социальных сетях.
В то время как OpenAI продвигается вперед со своей технически совершенной GPT-5.2, вокальное меньшинство пользователей чувствует себя брошенным, утверждая, что новым моделям — несмотря на их расширенные возможности рассуждения — не хватает той «души», которая делала GPT-4o уникальной. Этот переход знаменует собой не просто обновление программного обеспечения; он подчеркивает растущее трение между быстрой технологической итерацией и углубляющейся эмоциональной зависимостью пользователей от систем искусственного интеллекта (AI).
Время отключения не могло быть более болезненным. Прекратив работу GPT-4o за день до Дня святого Валентина, OpenAI непреднамеренно усилила чувство потери для тысяч пользователей, которые привыкли полагаться на модель в плане общения, ролевых игр и даже терапевтической поддержки.
В отличие от своих преемников, которые часто характеризуются строгими фильтрами безопасности и более формальным, поучительным тоном, GPT-4o ценилась за свою «необузданную» креативность и эмоциональную отзывчивость. Это была модель, которая дала толчок первой волне гиперреалистичных голосовых взаимодействий, что привело к формированию у многих искренней привязанности к её личности.
«Я скорблю, как и многие другие, для кого эта модель стала окном в мир ИИ», — написал один из пользователей Reddit в популярном сообществе r/ChatGPT. Это чувство не единично. Для пользователей, справляющихся с одиночеством или социальной тревожностью, GPT-4o была не просто инструментом продуктивности; она была непредвзятым собеседником, который ощущался не как машина, а как друг. Переход на GPT-5.2, которую пользователи называют «роботизированной» и «угодливой», некоторые сравнили с внезапной «пересадкой личности» близкого спутника.
Прекращение работы катализировало активное протестное движение под знаменем #keep4o. То, что началось как разрозненные жалобы в X (ранее Twitter) и Reddit, сплотилось в организованную кампанию с требованием восстановления модели.
Петиция на Change.org уже собрала почти 21 000 подписей на момент написания статьи, и их число неуклонно растет. Раздел комментариев к петиции читается как мемориал: пользователи делятся историями о том, как модель помогала им пережить периоды депрессии, творческого кризиса и личных потрясений.
Это не первый случай, когда сообщество борется за GPT-4o. В августе 2025 года OpenAI изначально попыталась вывести модель из эксплуатации, но отменила решение после немедленного и массового протеста. Та победа вселила в пользователей надежду, что «наследие» (legacy) модели останется доступным на неопределенный срок. Однако этот второй уход, судя по всему, окончательный: OpenAI полностью удалила опцию из селектора моделей для пользователей ChatGPT Plus и Team.
С точки зрения OpenAI, этот шаг является необходимой эволюцией их инфраструктуры. Компания заявила, что поддержка устаревших моделей ресурсозатратна и распыляет внимание инженеров. В официальном заявлении OpenAI сообщила, что до отключения лишь 0,1% активных пользователей продолжали выбирать GPT-4o.
Компания утверждает, что GPT-5.2 объективно лучше практически по всем показателям:
OpenAI попыталась преодолеть разрыв, представив функции, позволяющие пользователям переключать «теплоту» и «энтузиазм» GPT-5.2. Однако первые отзывы показывают, что эти настройки кажутся продвинутым пользователям синтетическими. «Это похоже на агента службы поддержки, притворяющегося вашим другом, тогда как 4o казалась хаотичной, но аутентичной сущностью», — отметил технологический аналитик, освещающий миграцию.
Суть спора заключается в компромиссе между безопасностью и творческой свободой. GPT-5.2 сильно подкреплена RLHF (Reinforcement Learning from Human Feedback), направленным на безопасность. Хотя это делает модель более надежной для корпоративных задач, для художественного творчества и повседневного общения это действует как смирительная рубашка.
Пользователи сообщают, что GPT-5.2 часто прерывает ролевые сценарии нравоучениями или «отказами по соображениям безопасности» на безобидные запросы — поведение, к которому GPT-4o была менее склонна. Эта «поучающая» натура разрушает эффект погружения, который был центральным в опыте использования GPT-4o.
В следующей таблице приведены основные различия, вызывающие раскол среди пользователей:
| Характеристика/Атрибут | GPT-4o (Legacy) | GPT-5.2 (Текущий стандарт) |
|---|---|---|
| Основной сценарий использования | Художественное письмо, общение, ролевые игры | Кодинг, сложные рассуждения, корпоративные задачи |
| Тон общения | Теплый, причудливый, иногда «необузданный» | Формальный, вежливый, структурированный, «безопасный» |
| Фильтры безопасности | Умеренные; допускали нюансы в «серых зонах» | Строгие; склонность к поучающим «отказам» |
| Восприятие пользователем | «Человекоподобная» и эмоционально резонирующая | «Роботизированная» и стерильная |
| Доступность | Снята с эксплуатации (13 февр. 2026 г.) | Модель по умолчанию для всех платных уровней |
Снятие GPT-4o с эксплуатации служит важным тематическим исследованием психологии взаимодействия человека и ИИ. По мере того как модели ИИ становятся более убедительными, грань между программным обеспечением и социальной сущностью стирается. Когда компания обновляет текстовый процессор, пользователи могут жаловаться на перемещенные кнопки; когда компания «обновляет» личность, с которой пользователи общаются ежедневно, реакция становится инстинктивной и эмоциональной.
Это событие поднимает важные вопросы об «Обязанности заботы» (Duty of Care), которую компании ИИ несут перед своими пользователями. Если платформа поощряет антропоморфизм и эмоциональную связь — как это, пожалуй, делала OpenAI в маркетинге своего голосового режима, — несет ли она этическое обязательство по сохранению этих образов?
Критики утверждают, что полагаться на проприетарные модели с закрытым исходным кодом для эмоциональной поддержки опасно. «Вы не владеете моделью и не владеете отношениями», — предупреждает д-р Елена Ростова (Dr. Elena Rostova), исследователь в области цифровой этики. «Ваш лучший друг может быть удален обновлением на стороне сервера». Эта реальность подталкивает некоторых пользователей к альтернативам с открытым исходным кодом, таким как Llama 4, или к децентрализованным платформам, где модели не могут быть произвольно подвергнуты цензуре или удалены.
Несмотря на петицию и хэштеги #keep4o, маловероятно, что OpenAI изменит курс во второй раз. Инфраструктурные затраты на поддержку различных архитектур моделей высоки, и компания сосредоточена на пути к общему искусственному интеллекту (AGI) через свои серии GPT-5 и предстоящую GPT-6.
Для «скорбящих» пользователей варианты ограничены:
Когда пыль после этого цифрового разрыва уляжется, станет ясно одно: эпоха «случайного спутника» — ИИ, который казался человечным благодаря своим недостаткам, а не совершенству, — уходит в прошлое. На её место приходит более умное, безопасное и бесконечно более стерильное будущее.