
Davos, Switzerland — 다보스의 눈 덮인 봉우리는 오랫동안 세계에서 가장 중대한 경제 논의의 배경이었지만, 2026년 세계경제포럼(World Economic Forum)에서는 의회 센터 내부의 열기가 바깥의 차가운 공기보다 훨씬 높았다. 인공 일반 지능(Artificial General Intelligence, AGI) 산업의 결정적 순간에, 업계에서 가장 두드러진 인물 세 명—DeepMind의 Demis Hassabis, Anthropic의 Dario Amodei, Meta의 Yann LeCun—이 AGI의 미래에 대해 근본적으로 엇갈리는 로드맵을 제시하며 AI 연구 최상위층에서 이념적·기술적 분열이 심화되고 있음을 드러냈다.
참석자들이 구어적으로 "AGI 이후의 날(The Day After AGI)"이라 부른 이 세션은 이전 해들의 이론적 수사학을 넘어섰다. 대신, AGI가 스케일 법칙에 의해 임박한 필연이라고 보는 쪽과 현 지배적 아키텍처인 대규모 언어 모델(Large Language Models, LLMs)이 진정한 지능으로 가는 길에서 근본적 막다른길이라고 주장하는 쪽 사이의 뚜렷한 갈등을 적나라하게 드러냈다.
Anthropic의 CEO Dario Amodei는 가장 공격적인 일정으로 논쟁을 열며 사실상 인간 주도의 소프트웨어 엔지니어링 시대가 끝나가고 있다고 선언했다. AI 안전성과 조정성(steerability)에 앞장서온 그의 회사는, Amodei가 "폐쇄 루프(closed loop)" 형태의 AI 자기 진화가 이미 가동되었다고 제안하며 많은 사람을 놀라게 했다.
"우리는 더 이상 인간이 수동으로 모델 아키텍처를 반복 수정하는 이론적 틀 안에서 운영하지 않습니다," Amodei는 가득 찬 강당에서 말했다. "우리는 모델이 스스로 코드를 작성하는 단계에 진입했습니다. Anthropic의 엔지니어들 중 일부는 솔직히 더 이상 코드를 직접 쓰지 않는다고 말합니다; 그들은 모델이 코드를 쓰는 과정을 감독합니다. 일단 그 루프를 닫아—AI가 더 나은 AI를 만드는 지점—타임라인은 급격히 단축됩니다."
Amodei는 Anthropic이 정의한 바에 따라, 대부분의 관련 작업에서 노벨상 수상자를 능가할 수 있는 시스템으로 AGI가 2027년 또는 2028년 정도에 도달할 수 있다고 예측했다. 그의 주장은 칩 제조나 에너지 인프라 같은 물리적 제약은 남아있지만 알고리즘 설계라는 지적 병목이 해소되고 있다는 관찰에 기초한다.
Amodei의 예측이 내포한 사회경제적 함의는 냉엄했다. 그는 향후 12~24개월 내에 특히 데이터 분석과 코딩 분야의 초급 화이트칼라 업무 중 최대 50%가 대체될 수 있다는 경고를 되풀이했다. "초급 역할의 대체는 미래의 위험이 아니라 우리가 오늘날 실리콘밸리에서 목격하는 운영상의 현실입니다," 그는 입법 주기보다 빠르게 움직이는 노동시장 충격에 대비할 것을 정책입안자들에게 촉구했다.
Google DeepMind의 CEO인 Sir Demis Hassabis는 낙관적이면서도 지능의 정의에 관해 중요한 경고를 담은 반대 서사를 제시했다. 코딩과 수학의 "디지털 영역"에서의 급속한 진전을 인정하면서도, Hassabis는 과학적 발견의 "물리적 영역"으로의 도약은 단독의 LLM만으로는 극복하기 어려운 거대한 장벽으로 남아 있다고 주장했다.
"규칙이 공리적인 수학 문제를 푸는 것과, 규칙이 뒤엉켜 있고 불완전하며 물리적인 생물학에서 새로운 가설을 발명하는 것 사이에는 깊은 차이가 있습니다," Hassabis는 주장했다. 그는 보다 보수적인 타임라인을 유지하며 AGI 달성 가능성을 5~10년 내 50%로 추정했는데—이는 Amodei의 2027년보다 2030년 쪽에 더 가깝다.
Hassabis는 DeepMind의 전략이 "과학 우선(Science First)" AI에 초점을 맞추고 있다고 강조했다. 그는 AlphaFold의 후속 모델들이 단순한 단백질 구조 뿐만 아니라 약물 발견으로 이어지는 복잡한 생물학적 상호작용까지 모델링하기 시작한 최근의 돌파구들을 지적했다. 그러나 그는 언어적 능력과 과학적 창의성을 혼동하지 말 것을 경고했다. "처음에 질문을 제기하는 것—그것이 일반 지능의 불꽃입니다. 우리는 훌륭하게 답을 실행할 수 있는 기계를 보고 있지만, 새로운 과학적 패러다임을 스스로 구성할 수 있는 기계는 아직 보지 못했습니다."
Hassabis에게 AGI로 가는 길은 LLM의 추론 능력을 시뮬레이션과 탐색에 기반한 시스템과 통합하는 것을 필요로 한다—다음 토큰 예측을 넘어서 실제로 물리적 공간에서 계획하고 문제를 해결하는 하이브리드 접근이다.
Amodei가 가속 페달을, Hassabis가 조향간을 대표했다면 Meta의 수석 AI 과학자 Yann LeCun은 과장된 기대에 제동을 거는 위치에 섰다. LeCun은 업계의 대규모 언어 모델(LLMs)에 대한 의존을 신랄하게 비판하며 "LLMs는 AGI로 이어지지 않을 것"이라는 논쟁적 입장을 재차 주장했다.
LeCun의 주장은 데이터 효율성과 세계 모델링(world modeling)에 초점이 있다. 그는 더 많은 텍스트 데이터가 더 큰 지능을 의미한다는 생각을 분해하는 인간 학습과 기계 학습의 비교 분석을 제시했다. "네 살짜리 아이는 아마 16,000시간가량의 시각 데이터를 보았고, 우리 가장 큰 모델들보다 물리학, 인과성, 대상의 영속성을 더 잘 이해합니다," LeCun은 말했다. "반면 인간의 독서물에 해당하는 40만 년치의 자료를 섭취한 LLM조차도 기본 사실을 환각(hallucinate)합니다. 그것은 현실에 대한 접지가 없기 때문입니다."
LeCun은 자신이 제창하는 "공동 임베딩 예측 아키텍처(Joint Embedding Predictive Architecture, JEPA)"를 필요한 대안으로 옹호했다. 그는 AI가 인간 수준에 도달하려면 자동회귀(auto-regressive) 방식의 텍스트 생성(다음 단어 예측)에서 벗어나 추상적 표현으로 세계의 상태를 예측할 수 있는 "월드 모델(World Models)"로 나아가야 한다고 주장했다.
"텍스트는 고대역폭 세계의 저대역폭 투영입니다," LeCun은 주장했다. "텍스트만으로 코끼리를 그림자로 보고 재구성하려 하는 셈입니다. 문장에서 다음 토큰을 예측하는 것만으로 물리적 세계에서 계획하거나 추론하는 기계를 만들 수는 없습니다. 그것은 수학적으로 불가능합니다."
다보스에서의 분열 규모를 이해하려면 이 세 리더가 제시한 구체적 예측과 기술적 베팅을 살펴보는 것이 필수적이다. 다음 표는 그들의 상충되는 입장을 요약한다.
Table: The Davos 2026 AI Leadership Divide
| Leader | Organization | Projected AGI Timeline | Primary Technical Bottleneck | Key Quote/Stance |
|---|---|---|---|---|
| Dario Amodei | Anthropic (CEO) | 2027-2028 (1-2 Years) | Computing power and energy infrastructure; the software bottleneck is already breaking. | "The 'closed loop' of AI self-evolution has begun. Engineers don't write code; they manage models that do." |
| Demis Hassabis | Google DeepMind (CEO) | 2030-2032 (5-10 Years) | Transferring reasoning from digital axioms (math/code) to messy physical sciences. | "Digital realms are crumbling fast, but scientific creativity and hypothesis generation remain elusive." |
| Yann LeCun | Meta (Chief AI Scientist) | >2035 (Skeptical of current path) | The fundamental architecture of LLMs; lack of World Models and grounding. | "LLMs are an off-ramp. A child learns physics from vision; models cannot learn it from text alone." |
다보스에서의 논쟁은 학문적 불일치를 훨씬 넘어선다; 이는 현재 수조 달러 규모의 자본이 어떻게 배치되고 있는지를 좌우한다. Amodei의 말이 맞다면, 전 세계 경제는 지능의 비용이 거의 제로로 떨어지는 "소프트웨어 특이점"까지 불과 몇 달 남지 않았으며, 즉각적인 기본소득(Universal Basic Income, UBI) 논의와 급진적인 기업 구조조정이 필요하다. Anthropic의 엔터프라이즈 채택 중심 전략은 그들이 이러한 즉각적 파괴적 능력에 대해 전부를 걸고 있다는 점을 시사한다.
반대로 LeCun의 주장이 맞다면, 파라미터 확장이 곧 지능 확장이라는 가정에 의해 부풀려진 현재의 AI 버블은 터질 위험이 있다. LLM 훈련을 위해 수십억을 GPU 클러스터에 쏟은 기업들은 수익 감소를 경험하고 Meta가 탐구하는 근본적으로 다른 아키텍처로 전환을 강요당할 수 있다. 이는 OpenAI와 Anthropic의 거대 모델 확장 전략보다 오픈소스 커뮤니티의 더 분산적이고 실험적인 접근을 정당화할 것이다.
Hassabis는 다보스 엘리트에게 아마도 가장 받아들일 만한 중도 경로를 제시한다: AI가 인간 인지를 완전히 대체하기 전에 에너지(핵융합)와 생물학(수명 연장)에서 "탈희소(post-scarcity)"적 돌파구를 열어젖힐 수 있는 지속적이고 고위험의 진화. 그의 비전은 Google이 AI를 인프라에 깊이 통합하는 것과 일치하며, AI가 단순히 화이트칼라 노동을 대체하는 것이 아니라 과학적 풍요의 도구가 되는 미래를 시사한다.
대표단이 의회 센터를 떠날 때, 한때 AI 커뮤니티를 단결시켰던 합의—"규모면 충분하다(scale is all you need)"—는 눈에 띄게 분열되어 보였다. 다보스 2026 논쟁은 목적지(AGI)는 공유되더라도 차량과 지도는 격렬히 경쟁 중임을 부각시켰다.
Creati.ai 독자들을 위한 시사점은 분명하다: 향후 12개월이 시험대가 될 것이다. Anthropic의 모델들이 자율적으로 우수한 소프트웨어를 쓰기 시작한다면 Amodei의 타임라인이 입증될 것이다. 진행이 정체되고 환각 현상이 지속된다면 LeCun의 새로운 아키텍처 요구는 더 커질 것이다. 우리는 더 이상 AI의 미래가 쓰여지기만을 기다리지 않는다; 이제 그 미래가 실시간으로 논쟁되는 것을 지켜보고 있으며, 세계 경제의 운명이 그 균형에 달려 있다.