
인공지능 산업의 분기점에서 Google DeepMind의 CEO Demis Hassabis는 대형 언어 모델(Large Language Models, LLMs)의 지배적 위치에 공개적으로 이의를 제기하며, OpenAI와 같은 경쟁사들이 선호하는 현 경로가 진정한 범용 인공지능(Artificial General Intelligence, AGI)을 달성하기에는 불충분하다고 주장했다. 2026년 1월 19일 CNBC의 "The Tech Download" 팟캐스트에서 Hassabis는 통계적 상관관계에 기반한 단순한 텍스트 예측이 아니라 물리적 현실을 시뮬레이션하고 인과성을 이해할 수 있는 "월드 모델(World Models)"로의 전략적 전환을 역설했다.
이 비판은 세계 주요 AI 연구소들의 철학적·기술적 로드맵에서 큰 분기점을 나타낸다. Sam Altman이 이끄는 OpenAI는 역사적으로 연산량과 데이터량을 늘리는 것이 지능 향상으로 이어진다는 확장 법칙(scaling laws)에 계속 의존해 왔다. 반면 Hassabis는 과학적 발명과 기본 원리에서의 추론에서는 이 접근법이 "근본적인 한계"에 부딪혔다고 제안한다.
Hassabis의 주장의 핵심은 정보 처리와 물리적 이해의 구별에 있다. GPT 계열과 같은 LLMs는 방대한 인간 생성 텍스트를 파싱해 패턴을 찾는 데 탁월하다. 그러나 Hassabis는 이러한 모델들이 "인과성을 진정으로 이해하지 못한다"고 주장한다. 이들은 학습 데이터의 묘사에 따라 떨어지는 사과를 설명할 수는 있지만, 전에 본 적 없는 환경에서 중력을 시뮬레이션해 새로운 결과를 예측할 수는 없다.
"오늘날의 대형 언어 모델은 패턴 인식에 있어 놀랍습니다,"라고 Hassabis는 인터뷰에서 말했다. "하지만 왜 A가 B로 이어지는지는 진정으로 알지 못합니다. 그저 다음 토큰을 예측할 뿐이죠."
Creati.ai 독자들에게 이 구별은 매우 중요하다. 이는 LLMs가 대화형 인터페이스나 코드 보조 도구로서 계속 향상되겠지만, 새로운 물질을 발견하거나 질병을 치료하는 것과 같은 복잡한 과학 문제를 해결하기 위해 필요한 "AlphaGo 규모의 돌파구"를 달성하지 못할 수 있음을 시사한다. Hassabis는 AGI가 아직 5~10년 정도 남아 있으며, 현재의 transformer 기반 패러다임을 넘어서는 아키텍처가 필요하다고 추정한다.
DeepMind의 대안적 비전은 물리적 세계의 내부 표현을 구축하는 AI를 만드는 데 초점을 맞춘다. 이러한 "월드 모델"은 도서관보다는 게임 엔진에 더 가깝게 작동한다. 이들은 "사고 실험(thought experiments)"을 실행하고, 3D 공간에서 결과를 시뮬레이션하며, 일관된 물리 법칙 집합에 대해 가설을 테스트할 수 있다.
DeepMind는 이미 이 접근법의 실현 가능성을 입증하기 시작했다. Hassabis는 2025년 8월에 공개된, 텍스트 프롬프트로부터 대화형 3D 환경을 생성하는 시스템인 Genie 3와, 이러한 시뮬레이션된 세계 내에서 AI 에이전트가 내비게이션하고 작업을 수행하도록 훈련시키는 SIMA 2를 지목했다. 초기 연구는 언어 이해와 공간 추론을 결합한 이 하이브리드 시스템이 순수 LLMs보다 복잡한 추론 과제에서 20~30% 우수하며, 기본 물리에 관한 환각(hallucinations)을 크게 줄인다는 것을 시사한다.
이 발언들의 시기는 우연이 아니다. AI 산업은 현재 극심한 변동성의 시기를 겪고 있다. Google의 Gemini 3 출시(2025년 말) 이후, OpenAI 내부에서 확장 전략의 수익 감소에 대한 우려로 인해 내부 "Code Red"가 발생했다는 보도가 나왔다. LLM 전용 경로의 한계를 공개적으로 설명함으로써 Hassabis는 Google을 단순한 경쟁자가 아니라 AI의 다음 아키텍처 도약을 선도하는 개척자로 자리매김하고 있다.
이 변화는 철학적 차원을 넘어 운영상의 변화이기도 하다. Hassabis는 이제 Alphabet의 CEO Sundar Pichai와 매일 연락하고 있다고 밝혔다. 이는 DeepMind가 Google의 AI 노력에서 단일한 "엔진룸"으로서의 지위를 강화했음을 보여준다. 이러한 간소화된 구조는 연구 성과를 소비자 제품으로 더 빠르게 전환하려는 목적을 갖고 있다. 이는 Google이 이전에 너무 느리게 움직였다는 비판에 대한 직접적인 대응이다.
기술적 논쟁을 넘어서, Hassabis는 글로벌 AI 지형에 대한 엄중한 평가를 제시했다. 국제 경쟁에 대한 질문을 받았을 때 그는 중국의 AI 모델들이 서방 모델들과의 성능 격차를 빠르게 좁히고 있다고 지적했다.
"몇 년이 아니라 몇 달의 문제다,"라고 Hassabis는 미·중 선두 모델들 간의 지연에 관해 언급했다. 그는 Alibaba 같은 기업들과 Moonshot AI와 같은 스타트업들의 급속한 진전을 예로 들었다. 다만 그는 미묘한 구별을 제시했다: 중국 연구소들이 빠른 추종과 공학적 탁월성에는 능숙하지만, Hassabis는 중국의 현재 생태계가 Google 연구자들이 Transformer 아키텍처를 원천적으로 발명한 것과 같은 제로투원(zero-to-one) 과학적 돌파구에 필요한 특정 "사고방식"을 배양하는지 의문을 제기했다.
이 아키텍처 논쟁의 이해 관계를 파악하려면, 현재 자원을 두고 경쟁 중인 두 가지 주요 접근법의 능력과 한계를 대비해 보는 것이 유용하다.
대형 언어 모델과 월드 모델의 비교
| Feature | 대형 언어 모델(LLMs) | 월드 모델 |
|---|---|---|
| 핵심 메커니즘 | 통계적 패턴 인식 및 토큰 예측 | 물리적 현실과 인과성의 시뮬레이션 |
| 주요 데이터 소스 | 인터넷의 텍스트, 코드, 정적 이미지 | 3D 환경, 물리 엔진, 비디오 데이터 |
| 추론 능력 | 상관적(연관 논리) | 인과적(기본 원리 기반 추론) |
| 주요 한계 | 환각(hallucinations)과 공간 인식 부족 | 실시간 시뮬레이션을 위한 높은 계산 비용 |
| 이상적 사용 사례 | 창작 글쓰기, 코딩, 요약 | 로보틱스, 과학적 발견, 자율 에이전트 |
| 예시 시스템 | GPT-4, Claude 3, Llama 3 | Genie 3, SIMA 2, AlphaFold |
Hassabis가 월드 모델을 옹호한 것은 "신경-심볼릭(neuro-symbolic)" 또는 하이브리드 AI 시스템으로의 산업 전환을 시사한다. 개발자와 기업 리더에게 이는 텍스트 기반 모델을 위한 프롬프트 엔지니어링(prompt engineering)에만 의존하던 시대가 공간 컴퓨팅(spatial computing)과 시뮬레이션이 AI 스택의 핵심 구성 요소가 되는 시기로 넘어가고 있음을 의미할 수 있다.
DeepMind의 가설이 맞다면, 차세대 AI는 단순히 세계에 대해 말하는 것을 넘어서 스스로 세계를 탐색할 수 있게 될 것이다. 이 능력은 고급 로보틱스와 자율 과학 실험을 포함한 물리적 경제를 여는 데 필수적이다. OpenAI가 언어를 통해 AI의 "두뇌"를 계속 정교화하는 동안, DeepMind는 그 두뇌에 몸과 거주할 세계를 제공하는 데 집중하는 것으로 보인다.
2026년이 전개되면서, 산업은 아마도 모델 개발에서 두 갈래로 분화될 것이다: 하나는 언어 유창성을 최적화하는 경로이고, 다른 하나는 물리적 지능을 목표로 하는 경로다. Creati.ai를 위해 우리는 이러한 월드 모델이 기존의 생성 도구들과 어떻게 통합되는지 면밀히 관찰할 것이며, 이는 창의적 생성과 과학적 정확성을 결합한 새로운 응용 프로그램 계층을 만들어낼 가능성이 있다.