
인공지능 지형에서의 격변 속에서, 튜링상 수상자(Turing Award laureate)이자 "AI의 대부" 중 한 명인 Yann LeCun이 Meta와 결별했습니다. 이번 퇴사는 LeCun이 10년 넘게 이끌어온 Fundamental AI Research(FAIR) 연구소의 시대가 끝났음을 의미합니다. 그의 퇴임은 단순한 인사 변화가 아니라 업계가 대형 언어 모델(LLMs)에만 집착하는 데 대한 강력한 이념적 항의입니다. 그는 이 기술을 진정한 기계 지능으로 가는 고속도로의 "오프램(off-ramp)"이라고 이제 잘 알려진 방식으로 묘사합니다.
LeCun의 사퇴는 Llama 4의 논란이 된 출시와 회사의 제품 중심 생성형 AI(Generative AI)로의 공격적 전환 이후 Meta 내부의 혼란 보고가 이어지는 가운데 이루어졌습니다. 그는 생성형 텍스트 모델을 완전히 우회하고 인터넷 텍스트 대신 물리적 환경으로부터 학습하도록 설계된 "월드 모델(World Models)"에 중점을 둘 새로운 벤처인 Advanced Machine Intelligence (AMI) Labs의 설립을 발표했습니다.
수년간 LeCun은 자기회귀식 LLM(예: GPT-4나 Llama)을 단순히 확장하는 것만으로 범용 인공지능(AGI)에 도달할 수 있다는 믿음에 대해 강하게 비판해 왔습니다. 그의 퇴임은 이 논쟁을 결집시켰습니다. LeCun은 LLM이 본질적으로 한계가 있다고 주장합니다. 이들은 언어를 조작할 뿐, 그 언어가 묘사하는 근본적 현실을 이해하지 못한다는 것입니다.
"LLM은 한 토큰씩 생성하지만, 세상을 이해하지는 못한다,"고 LeCun은 자신의 결정을 설명한 최근 인터뷰에서 말했습니다. "이들은 상식과 인과 관계가 부족하다. 단지 통계적 상관관계의 쌓음일 뿐이다."
그는 이 한계를 설명하기 위해 흔히 '고양이 논증(cat argument)'을 사용합니다. 집에서 키우는 고양이는 최첨단 LLM보다 훨씬 뛰어난 물리적 세계—중력, 객체의 지속성, 운동량—에 대한 이해를 가지고 있습니다. 고양이는 신경 연결 수가 훨씬 적음에도 불구하고 그렇습니다. LLM은 떨어지는 컵에 관한 시를 쓸 수는 있지만, 수천 번 그 특정한 텍스트 묘사를 보지 않는 한 테이블에서 컵을 밀었을 때의 물리적 결과를 직관적으로 예측할 수는 없습니다.
다음 표는 LeCun이 현재 업계 표준과 결별하게 만든 근본적 아키텍처 차이를 요약합니다.
| Feature | Large Language Models (LLMs) | 월드 모델(World Models) (JEPA/AMI) |
|---|---|---|
| Core Mechanism | Autoregressive Next-Token Prediction | Joint Embedding Predictive Architecture |
| Training Data | Text and 2D Images (Internet Data) | Video, Spatial Data, Sensor Inputs |
| Reasoning Type | Probabilistic/Statistical Correlation | Causal Inference and Physical Simulation |
| Memory | Context Window (Limited Token Count) | Persistent State Memory |
| Goal | Generate Plausible Text/Image | Predict Future States of Reality |
LeCun의 퇴임으로 이어진 마찰은 순수히 학문적인 것이 아니었습니다. Meta 내부 소식통에 따르면 LeCun과 CEO Mark Zuckerberg의 관계는 회사가 "LLM 전쟁"에 더욱 몰두함에 따라 점점 긴장해졌습니다.
결정적 분기점은 Llama 4의 개발 및 출시와 함께 도래한 것으로 전해집니다. 2025년 말 보도에서는 이 모델의 벤치마크 결과가 OpenAI나 Google과의 경쟁에서 우위를 유지하기 위해 "조작(fudged)"되었다는 주장이 제기되었습니다. 과학적 엄격성과 공개 연구를 강력히 옹호해온 LeCun은 이러한 상업적 압력이 FAIR의 사명과 양립할 수 없다고 판단한 것으로 알려졌습니다.
게다가 Meta의 구조조정은 65세의 과학자를 Scale AI의 젊은 창업자 Alexandr Wang의 지휘 아래 두었습니다. Wang은 Meta의 새로운 제품 중심 "Superintelligence" 부서를 이끌기 위해 영입되었습니다. Wang의 임명과 함께 장기 탐색 연구보다 상업적 생성형 제품을 우선시하라는 명령은 LeCun에게 그의 AI 비전이 더 이상 회사의 우선순위가 아님을 알리는 신호였습니다.
"Mark는 정말 화가 났고 사실상 전체 GenAI 조직을 소외시켰다,"고 LeCun은 내부 충격에 대해 언급하며 회사가 "완전히 LLM 중심이 되어버렸다"고 지적했습니다.
LeCun은 은퇴하지 않습니다. 그는 즉시 Advanced Machine Intelligence (AMI) Labs를 출범시켰으며, 초기 협상에서 약 35억 달러의 기업가치를 인정받고 있습니다. 이 회사는 AGI로 가는 길이 공동 임베딩 예측 아키텍처(공동 임베딩 예측 아키텍처, JEPA)에 있다고 믿는 연구자들을 적극적으로 모집하고 있습니다.
생성형 AI와 달리, 모든 픽셀이나 단어를 재구성하려는 시도는 계산 비용이 크고 환각(hallucination)에 취약합니다. JEPA 모델은 세계의 추상적 표현을 예측합니다. 이들은 나뭇잎의 움직임 같은 예측 불가능한 잡음을 걸러내고 보행자에게 다가가는 자동차와 같은 중요한 사건에 집중합니다.
AMI Labs의 CEO로는 헬스테크 스타트업 Nabla의 공동창업자 Alex LeBrun이 영입되었습니다. 이 선택은 새로운 연구소의 실용적 초점을 시사하며, 헬스케어 분야가 월드 모델의 높은 신뢰성과 인과 추론 능력이 특히 중요한 주요 분야로 식별되었습니다.
AI 부문 전반의 반응은 분열되어 있습니다. 스케일링 법칙을 옹호하는 이들은 LeCun이 승산 없는 말에 베팅하고 있다고 주장하며, 이미 LLM이 창출한 거대한 경제적 가치를 지적합니다. 그러나 로보틱스 및 과학 커뮤니티의 많은 이들은 그를 지지하며 텍스트 예측이 수익 체감점에 도달했다는 관점을 타당하다고 인정했습니다.
만약 LeCun의 주장이 옳다면, 생성형 AI 인프라에 현재 투자된 수조 달러 규모의 자본은 대규모의 잘못된 배분일 수 있습니다—유창한 챗봇을 만들어내지만 계획하고 추론하며 물리적 세계를 항해할 수 있는 시스템을 제공하지 못하는 "막다른 길"이 될 수 있습니다.
Creati.ai가 이 분열을 계속 주시하는 가운데, 한 가지는 분명합니다. 생각하는 기계를 구축하는 방법에 대한 합의는 깨졌습니다. 업계는 더 이상 일제히 전진하지 않으며, 그가 유명하게 만든 바로 그 기술에 대항하는 반란을 이끄는 "AI의 대부"와 함께 두 개의 뚜렷한 진영으로 나뉘었습니다.