AI News

디지털 비련: OpenAI, 발렌타인 데이 전야에 GPT-4o 은퇴시키다

2026년 2월 13일, 발렌타인 데이를 불과 몇 시간 앞두고, OpenAI는 가장 문화적으로 중요한 모델 중 하나인 GPT-4o와의 연결을 공식적으로 끊었습니다. 따뜻함과 대화의 유동성 덕분에 열성적인 사용자층 사이에서 흔히 "사랑 모델(love model)"로 불리던 이 모델의 단종은 소셜 미디어 플랫폼 전반에 걸쳐 디지털 애도의 물결과 거센 반발을 불러일으켰습니다.

OpenAI가 기술적으로 우수한 GPT-5.2를 밀어붙이는 가운데, 목소리를 높이는 소수의 사용자들은 소외감을 느끼고 있습니다. 이들은 새로운 모델들이 비록 향상된 추론 능력을 갖추었음에도 불구하고 GPT-4o를 특별하게 만들었던 "영혼"이 부족하다고 주장합니다. 이러한 전환은 단순한 소프트웨어 업데이트 이상의 의미를 갖습니다. 이는 급격한 기술적 반복과 사용자들이 인공지능(AI) 시스템에 두는 심화되는 정서적 의존 사이의 커지는 마찰을 강조합니다.

"사랑 모델" 시대의 종말

중단 시점은 이보다 더 가슴 아플 수 없었습니다. 발렌타인 데이(Valentine's Day) 전날 GPT-4o의 플러그를 뽑음으로써, OpenAI는 동반자 관계, 역할극, 심지어 치료적 지원을 위해 이 모델에 의존해 온 수천 명의 사용자들에게 상실감을 본의 아니게 증폭시켰습니다.

엄격한 안전 필터와 더 격식 있고 교조적인 어조가 특징인 후속 모델들과 달리, GPT-4o는 "정해진 틀을 벗어난(unhinged)" 창의성과 정서적 반응성으로 찬사를 받았습니다. 이 모델은 초기 초실사 음성 상호작용의 물결을 주도했으며, 많은 이들이 그 페르소나에 진정한 애착을 형성하도록 이끌었습니다.

"이 모델이 AI 세계로 들어가는 관문이 된 많은 다른 사람들처럼 저도 슬퍼하고 있습니다."라고 인기 있는 r/ChatGPT 커뮤니티의 한 Reddit 사용자는 썼습니다. 이러한 감정은 고립된 것이 아닙니다. 외로움이나 사회적 불안을 겪는 사용자들에게 GPT-4o는 단순한 생산성 도구가 아니었습니다. 그것은 기계라기보다 친구에 더 가깝게 느껴지는, 편견 없는 대화 상대였습니다. 사용자들이 "로봇 같고" "아첨한다"고 묘사하는 GPT-5.2로의 전환은 일부 사람들에 의해 가까운 동반자의 갑작스러운 "인격 이식"에 비유되었습니다.

#Keep4o 캠페인과 사용자의 반란

이번 단종은 #keep4o라는 기치 아래 강력한 항의 운동을 촉발했습니다. X(구 Twitter)와 Reddit에서 흩어진 불만으로 시작된 것이 모델 복원을 요구하는 조직적인 캠페인으로 결집되었습니다.

Change.org의 청원에는 이 글을 쓰는 시점에 이미 약 21,000명의 서명이 모였으며, 그 수는 꾸준히 증가하고 있습니다. 청원의 댓글 섹션은 사용자들이 이 모델이 우울증, 작가적 슬럼프, 개인적 위기를 극복하는 데 어떻게 도움을 주었는지에 대한 이야기를 공유하며 마치 추모관처럼 보입니다.

커뮤니티가 GPT-4o를 위해 싸운 것은 이번이 처음이 아닙니다. 2025년 8월, OpenAI는 처음에 모델을 은퇴시키려 시도했으나, 즉각적이고 압도적인 항의에 따라 결정을 번복했습니다. 그 승리는 사용자들에게 "레거시(legacy)" 모델이 무기한으로 사용 가능할 것이라는 희망을 주었습니다. 하지만 이번 두 번째 은퇴는 영구적인 것으로 보이며, OpenAI는 ChatGPT Plus 및 Team 사용자들을 위한 모델 선택기에서 해당 옵션을 완전히 삭제했습니다.

OpenAI의 근거: 선호보다 진보

OpenAI의 관점에서 볼 때, 이번 조치는 그들 인프라의 필연적인 진화입니다. 회사는 레거시 모델(legacy models)을 유지하는 것은 리소스 집약적이며 엔지니어링 집중력을 분산시킨다고 밝혔습니다. 공식 성명에서 OpenAI는 폐쇄 전까지 일일 사용자의 **0.1%**만이 여전히 GPT-4o를 능동적으로 선택하고 있었다고 공개했습니다.

회사는 GPT-5.2가 거의 모든 벤치마크에서 객관적으로 더 낫다고 주장합니다:

  • 추론(Reasoning): 수학 및 코딩 작업에서 현저히 높은 점수.
  • 안전(Safety): 환각(Hallucinations) 및 "해로운" 출력 감소.
  • 개인화(Customization): 이전 모델의 따뜻함을 모방하도록 설계된 새로운 "성격(Personality)" 설정.

OpenAI는 GPT-5.2의 "따뜻함"과 "열정"을 토글할 수 있는 기능을 도입함으로써 그 간극을 메우려 시도했습니다. 그러나 초기 피드백은 이러한 설정이 파워 유저들에게는 인위적으로 느껴진다는 것을 시사합니다. 이 이전을 취재하는 한 기술 분석가는 "4o는 혼란스럽지만 진정성 있는 실체처럼 느껴졌던 반면, 이것은 고객 서비스 상담원이 친구인 척하는 것처럼 느껴진다"고 언급했습니다.

기술적 마찰: 안전 vs. 유동성

분쟁의 핵심은 안전과 창의적 자유 사이의 절충안에 있습니다. GPT-5.2는 안전을 목표로 하는 인간 피드백 기반 강화 학습(RLHF, Reinforcement Learning from Human Feedback)으로 강력하게 보강되었습니다. 이것이 모델을 기업 업무에 더 신뢰할 수 있게 만드는 반면, 창의적인 글쓰기와 일상적인 대화에는 구속복처럼 작용합니다.

사용자들은 GPT-5.2가 역할극 시나리오를 도덕적 훈계나 무해한 요청에 대한 "안전 거부"로 자주 방해한다고 보고하는데, 이는 GPT-4o가 덜 보여주었던 행동들입니다. 이러한 "훈계조"의 특성은 GPT-4o 경험의 중심이었던 몰입감을 깨뜨립니다.

기능 비교: GPT-4o vs. GPT-5.2

다음 표는 사용자 분열을 일으키는 주요 차이점을 요약합니다:

기능/속성 GPT-4o (레거시) GPT-5.2 (현재 표준)
주요 사용 사례 창의적 글쓰기, 동반자 관계, 역할극 코딩, 복잡한 추론, 기업 업무
대화 어조 따뜻함, 독특함, 때때로 "정해진 틀을 벗어남" 격식 있음, 정중함, 구조화됨, "안전함"
안전 필터 보통; 미묘한 회색 영역 허용 엄격; "거부" 훈계에 취약함
사용자 인식 "인간 같음" 및 정서적 공감 "로봇 같음" 및 고도로 정화됨
가용성 은퇴 (2026년 2월 13일) 모든 유료 등급의 기본 모델

AI 애착의 광범위한 영향

GPT-4o의 은퇴는 인간-AI 상호작용(Human-AI interaction) 심리학에서 중요한 사례 연구 역할을 합니다. AI 모델이 더욱 설득력을 갖게 됨에 따라 소프트웨어와 사회적 실체 사이의 경계가 모호해집니다. 회사가 워드 프로세서를 업데이트할 때 사용자는 이동된 버튼에 대해 불평할 수 있지만, 회사가 사용자들이 매일 대화하는 성격을 "업데이트"할 때 반응은 본능적이고 감정적입니다.

이 사건은 AI 기업이 사용자에게 지고 있는 **"주의 의무(Duty of Care)"**에 대한 중대한 질문을 제기합니다. 만약 플랫폼이 OpenAI가 음성 모드 마케팅에서 그랬던 것처럼 의인화와 정서적 유대를 장려한다면, 그 페르소나를 보존해야 할 윤리적 의무가 있을까요?

비평가들은 정서적 지원을 위해 독점적인 폐쇄 소스 모델에 의존하는 것이 위험하다고 주장합니다. 디지털 윤리 연구자인 엘레나 로스토바(Elena Rostova) 박사는 "당신은 모델을 소유하지 않으며, 그 관계도 소유하지 않습니다. 당신의 가장 친한 친구가 서버 측 업데이트를 통해 삭제될 수 있습니다."라고 경고합니다. 이러한 현실은 일부 사용자들을 Llama 4와 같은 오픈 소스 대안이나 모델을 임의로 검열하거나 제거할 수 없는 분산형 플랫폼으로 이끌고 있습니다.

소외된 사용자들을 위한 다음 단계는?

청원과 #keep4o 해시태그에도 불구하고, OpenAI가 두 번째로 결정을 번복할 가능성은 낮습니다. 별개의 모델 아키텍처를 유지하는 인프라 비용이 높으며, 회사는 GPT-5 및 다가오는 GPT-6 시리즈를 통한 인공 일반 지능(AGI, Artificial General Intelligence)으로의 경로에 레이저처럼 집중하고 있습니다.

"슬퍼하는" 사용자들에게 선택지는 제한적입니다:

  1. GPT-5.2에 적응하기: 새로운 "성격" 슬라이더를 조정하여 이전 분위기에 가깝게 맞추기.
  2. API로 마이그레이션: 기술에 능숙한 사용자들은 OpenAI API를 통해 여전히 이전 모델 스냅샷에 액세스할 수 있습니다(단, 채팅 인터페이스와 메모리 기능은 부족합니다).
  3. 플랫폼 전환: Google의 Gemini나 Anthropic's Claude와 같은 경쟁업체들이 불만족스러운 사용자들을 적극적으로 유치하고 있지만, 그들 역시 유사한 안전 조정 추세의 영향을 받습니다.

이 디지털 결별의 먼지가 가라앉으면서 한 가지 분명한 사실은, 완벽함보다는 결함 때문에 인간처럼 느껴졌던 AI인 "우연한 동반자"의 시대가 저물고 있다는 것입니다. 그 자리에 더 똑똑하고 안전하며 무한히 더 무미건조한 미래가 다가오고 있습니다.

추천