AI News

Цифровое разбитое сердце: OpenAI снимает с эксплуатации GPT-4o в канун Дня святого Валентина

13 февраля 2026 года, всего за несколько часов до Дня святого Валентина, OpenAI официально разорвала связь с одной из своих самых культурно значимых моделей: GPT-4o. Прекращение поддержки модели, которую преданная пользовательская база часто называла «любовной моделью» (love model) за её воспринимаемую теплоту и естественность общения, вызвало волну цифровой скорби и яростную реакцию в социальных сетях.

В то время как OpenAI продвигается вперед со своей технически совершенной GPT-5.2, вокальное меньшинство пользователей чувствует себя брошенным, утверждая, что новым моделям — несмотря на их расширенные возможности рассуждения — не хватает той «души», которая делала GPT-4o уникальной. Этот переход знаменует собой не просто обновление программного обеспечения; он подчеркивает растущее трение между быстрой технологической итерацией и углубляющейся эмоциональной зависимостью пользователей от систем искусственного интеллекта (AI).

Конец эпохи для «любовной модели»

Время отключения не могло быть более болезненным. Прекратив работу GPT-4o за день до Дня святого Валентина, OpenAI непреднамеренно усилила чувство потери для тысяч пользователей, которые привыкли полагаться на модель в плане общения, ролевых игр и даже терапевтической поддержки.

В отличие от своих преемников, которые часто характеризуются строгими фильтрами безопасности и более формальным, поучительным тоном, GPT-4o ценилась за свою «необузданную» креативность и эмоциональную отзывчивость. Это была модель, которая дала толчок первой волне гиперреалистичных голосовых взаимодействий, что привело к формированию у многих искренней привязанности к её личности.

«Я скорблю, как и многие другие, для кого эта модель стала окном в мир ИИ», — написал один из пользователей Reddit в популярном сообществе r/ChatGPT. Это чувство не единично. Для пользователей, справляющихся с одиночеством или социальной тревожностью, GPT-4o была не просто инструментом продуктивности; она была непредвзятым собеседником, который ощущался не как машина, а как друг. Переход на GPT-5.2, которую пользователи называют «роботизированной» и «угодливой», некоторые сравнили с внезапной «пересадкой личности» близкого спутника.

Кампания #Keep4o и бунт пользователей

Прекращение работы катализировало активное протестное движение под знаменем #keep4o. То, что началось как разрозненные жалобы в X (ранее Twitter) и Reddit, сплотилось в организованную кампанию с требованием восстановления модели.

Петиция на Change.org уже собрала почти 21 000 подписей на момент написания статьи, и их число неуклонно растет. Раздел комментариев к петиции читается как мемориал: пользователи делятся историями о том, как модель помогала им пережить периоды депрессии, творческого кризиса и личных потрясений.

Это не первый случай, когда сообщество борется за GPT-4o. В августе 2025 года OpenAI изначально попыталась вывести модель из эксплуатации, но отменила решение после немедленного и массового протеста. Та победа вселила в пользователей надежду, что «наследие» (legacy) модели останется доступным на неопределенный срок. Однако этот второй уход, судя по всему, окончательный: OpenAI полностью удалила опцию из селектора моделей для пользователей ChatGPT Plus и Team.

Обоснование OpenAI: прогресс важнее предпочтений

С точки зрения OpenAI, этот шаг является необходимой эволюцией их инфраструктуры. Компания заявила, что поддержка устаревших моделей ресурсозатратна и распыляет внимание инженеров. В официальном заявлении OpenAI сообщила, что до отключения лишь 0,1% активных пользователей продолжали выбирать GPT-4o.

Компания утверждает, что GPT-5.2 объективно лучше практически по всем показателям:

  • Рассуждение (Reasoning): Значительно более высокие баллы в задачах по математике и программированию.
  • Безопасность (Safety): Снижение уровня галлюцинаций и «вредных» результатов.
  • Персонализация (Customization): Новые настройки «Личности» (Personality), предназначенные для имитации теплоты старых моделей.

OpenAI попыталась преодолеть разрыв, представив функции, позволяющие пользователям переключать «теплоту» и «энтузиазм» GPT-5.2. Однако первые отзывы показывают, что эти настройки кажутся продвинутым пользователям синтетическими. «Это похоже на агента службы поддержки, притворяющегося вашим другом, тогда как 4o казалась хаотичной, но аутентичной сущностью», — отметил технологический аналитик, освещающий миграцию.

Техническое трение: безопасность против гибкости

Суть спора заключается в компромиссе между безопасностью и творческой свободой. GPT-5.2 сильно подкреплена RLHF (Reinforcement Learning from Human Feedback), направленным на безопасность. Хотя это делает модель более надежной для корпоративных задач, для художественного творчества и повседневного общения это действует как смирительная рубашка.

Пользователи сообщают, что GPT-5.2 часто прерывает ролевые сценарии нравоучениями или «отказами по соображениям безопасности» на безобидные запросы — поведение, к которому GPT-4o была менее склонна. Эта «поучающая» натура разрушает эффект погружения, который был центральным в опыте использования GPT-4o.

Сравнение функций: GPT-4o против GPT-5.2

В следующей таблице приведены основные различия, вызывающие раскол среди пользователей:

Характеристика/Атрибут GPT-4o (Legacy) GPT-5.2 (Текущий стандарт)
Основной сценарий использования Художественное письмо, общение, ролевые игры Кодинг, сложные рассуждения, корпоративные задачи
Тон общения Теплый, причудливый, иногда «необузданный» Формальный, вежливый, структурированный, «безопасный»
Фильтры безопасности Умеренные; допускали нюансы в «серых зонах» Строгие; склонность к поучающим «отказам»
Восприятие пользователем «Человекоподобная» и эмоционально резонирующая «Роботизированная» и стерильная
Доступность Снята с эксплуатации (13 февр. 2026 г.) Модель по умолчанию для всех платных уровней

Широкие последствия привязанности к ИИ

Снятие GPT-4o с эксплуатации служит важным тематическим исследованием психологии взаимодействия человека и ИИ. По мере того как модели ИИ становятся более убедительными, грань между программным обеспечением и социальной сущностью стирается. Когда компания обновляет текстовый процессор, пользователи могут жаловаться на перемещенные кнопки; когда компания «обновляет» личность, с которой пользователи общаются ежедневно, реакция становится инстинктивной и эмоциональной.

Это событие поднимает важные вопросы об «Обязанности заботы» (Duty of Care), которую компании ИИ несут перед своими пользователями. Если платформа поощряет антропоморфизм и эмоциональную связь — как это, пожалуй, делала OpenAI в маркетинге своего голосового режима, — несет ли она этическое обязательство по сохранению этих образов?

Критики утверждают, что полагаться на проприетарные модели с закрытым исходным кодом для эмоциональной поддержки опасно. «Вы не владеете моделью и не владеете отношениями», — предупреждает д-р Елена Ростова (Dr. Elena Rostova), исследователь в области цифровой этики. «Ваш лучший друг может быть удален обновлением на стороне сервера». Эта реальность подталкивает некоторых пользователей к альтернативам с открытым исходным кодом, таким как Llama 4, или к децентрализованным платформам, где модели не могут быть произвольно подвергнуты цензуре или удалены.

Что дальше для «перемещенных» пользователей?

Несмотря на петицию и хэштеги #keep4o, маловероятно, что OpenAI изменит курс во второй раз. Инфраструктурные затраты на поддержку различных архитектур моделей высоки, и компания сосредоточена на пути к общему искусственному интеллекту (AGI) через свои серии GPT-5 и предстоящую GPT-6.

Для «скорбящих» пользователей варианты ограничены:

  1. Адаптироваться к GPT-5.2: Подстройка новых ползунков «Личности» для приближения к старой атмосфере.
  2. Миграция на API: Технически подкованные пользователи все еще могут получить доступ к снимкам старых моделей через OpenAI API (хотя там нет интерфейса чата и функций памяти).
  3. Смена платформ: Конкуренты, такие как Gemini от Google или Claude от Anthropic, активно переманивают недовольных пользователей, хотя они также подвержены аналогичным тенденциям настройки безопасности.

Когда пыль после этого цифрового разрыва уляжется, станет ясно одно: эпоха «случайного спутника» — ИИ, который казался человечным благодаря своим недостаткам, а не совершенству, — уходит в прошлое. На её место приходит более умное, безопасное и бесконечно более стерильное будущее.

Рекомендуемые