AI News

Davos 2026: The Great AGI Divide — Amodei’s "Closed Loop" vs. LeCun’s World Models

Davos, Switzerland — Заснеженные вершины Давоса давно служат фоном для самых значимых экономических дискуссий мира, но на Всемирном экономическом форуме 2026 года температура внутри Конгресс-центра была заметно выше, чем холодный воздух снаружи. В определяющий момент для индустрии искусственного интеллекта три её наиболее заметные фигуры — Demis Hassabis из DeepMind, Dario Amodei из Anthropic и Yann LeCun из Meta — представили радикально расходящиеся дорожные карты будущего Искусственного общего интеллекта (Artificial General Intelligence, AGI), обнажив углубляющийся идеологический и технический раскол на высших уровнях исследований ИИ.

Сессия, которую участники в шутку называли «День после AGI», отошла от теоретических штампов прошлых лет. Вместо этого она обнажила резкий конфликт между теми, кто считает, что AGI — неизбежность ближайшего будущего, обусловленная законами масштабирования, и теми, кто утверждает, что текущая доминирующая архитектура — Большие языковые модели (Large Language Models, LLMs) — представляет собой фундаментальный тупик на пути к истинному интеллекту.

The Accelerationist Case: Amodei and the "Closed Loop"

Dario Amodei, CEO Anthropic, открыл дебаты с самым агрессивным таймлайном, фактически заявив, что эра человеко-ориентированной разработки программного обеспечения подходит к концу. Amodei, чья компания находится на передовой в вопросах безопасности и управляемости ИИ, удивил многих, предположив, что «замкнутая петля» (closed loop) самоэволюции ИИ уже активирована.

«Мы больше не работаем в теоретической модели, где люди вручную итеративно изменяют архитектуру моделей», — сказал Amodei полному залу. «Мы вошли в фазу, где модели пишут собственный код. У меня есть инженеры в Anthropic, которые откровенно говорят, что больше не пишут код; они наблюдают за моделью, которая пишет код. Как только вы замыкаете эту петлю — когда ИИ создаёт лучший ИИ — временные рамки резко сжимаются».

Amodei предсказал, что AGI — определяемый Anthropic как система, способная превзойти лауреата Нобелевской премии по большинству релевантных задач — может появиться уже в 2027 или 2028 году. Его аргумент опирается на наблюдение, что хотя физические ограничения (например, производство чипов и энергетическая инфраструктура) остаются, интеллектуальное узкое место в проектировании алгоритмов растворяется.

Социоэкономические последствия прогноза Amodei были мрачными. Он вновь подчеркнул своё предупреждение о том, что до 50% начальных беловоротничковых задач, особенно в анализе данных и программировании, могут быть вытеснены в течение следующих 12–24 месяцев. «Вытеснение младших ролей — это не будущий риск; это оперативная реальность, которую мы видим сегодня в Силиконовой долине», — отметил он, призывая законодателей подготовиться к шоку на рынке труда, который развивается быстрее законодательных циклов.

The Scientific Realist: Hassabis on the Physical-Digital Gap

Sir Demis Hassabis, CEO Google DeepMind, предложил контрнарратив, который, хотя и оптимистичен, вводит значительные оговорки относительно определения интеллекта. Признавая быстрый прогресс в «цифровой сфере» кодирования и математики, Hassabis утверждал, что переход в «физическую сферу» научных открытий остаётся серьёзным препятствием, которое одни лишь LLMs преодолеть не в силах.

«Есть глубокая разница между решением математической задачи, где правила аксиоматичны, и выдвижением новой гипотезы в биологии, где правила беспорядочны, неполны и физичны», — заявил Hassabis. Он придерживался более консервативного таймлайна, оценивая вероятность достижения AGI в 50% в течение пяти–десяти лет — то есть ближе к 2030 году, чем к 2027 по прогнозу Amodei.

Hassabis подчеркнул, что стратегия DeepMind фокусируется на подходе «Science First» (Science First AI). Он указал на недавние прорывы, где последователи AlphaFold начали моделировать не только структуры белков, но и сложные биологические взаимодействия, ведущие к открытию лекарств. Однако он предостерёг от отождествления лингвистической компетентности с научным творчеством. «Сформулировать сам вопрос — вот искра общего интеллекта. Мы видим машины, которые блестяще исполняют ответы, но пока не видели машину, способную сформулировать новую научную парадигму».

По мнению Hassabis, путь к AGI требует интеграции рассуждающих способностей LLMs с системами, основанными на симуляции и поиске — гибридным подходом, выходящим за рамки предсказания следующего токена (next-token prediction) к реальному планированию и решению задач в физическом пространстве.

The Skeptic’s Challenge: LeCun’s War on Auto-Regressive Models

Если Amodei представлял ускорение, а Hassabis — рулевое управление, то Yann LeCun, Chief AI Scientist Meta, расположил себя в роли тормоза на поезде хайпа. LeCun выступил с жёсткой критикой зависимости отрасли от Больших языковых моделей, вновь подтвердив свою спорную позицию, что «LLMs не приведут к AGI».

Аргумент LeCun сосредоточен на эффективности использования данных и моделировании мира. Он представил сравнительный анализ обучения человека и тренировки машин, который разрушал идею о том, что больше текстовых данных равно большему интеллекту. «Четырёхлетний ребёнок, возможно, видел около 16 000 часов визуальных данных и понимает физику, причинность и постоянство объектов лучше, чем наши крупнейшие модели», — заявил LeCun. «Сравните это с LLM, которому «скормлено» эквивалент 400 000 лет человеческого чтения, но который всё ещё галлюцинирует базовые факты, потому что у него нет привязки к реальности».

LeCun продвигал свою «Совместную эмбеддинговую предсказательную архитектуру (Joint Embedding Predictive Architecture, JEPA)» как необходимую альтернативу. Он утверждал, что для достижения уровня человека ИИ должен уйти от авторегрессивной генерации текста (auto-regressive text generation) — предсказания следующего слова — и двигаться в сторону «моделей мира» (World Models), которые могут предсказывать состояние мира в абстрактных представлениях.

«Текст — это низкоскоростная проекция высокоскоростного мира», — утверждал LeCun. «Обучая модели в основном на тексте, мы пытаемся восстановить слона, глядя на его тень. Нельзя построить машину, которая планирует или рассуждает в физическом мире, только предсказывая следующий токен в предложении. Это математически невозможно».

Comparative Analysis of Leadership Perspectives

Чтобы понять масштаб расхождения в Давосе, важно взглянуть на конкретные прогнозы и технические ставки, сделанные этими тремя лидерами. Следующая таблица суммирует их конфликтующие позиции.

Table: The Davos 2026 AI Leadership Divide

Leader Organization Projected AGI Timeline Primary Technical Bottleneck Key Quote/Stance
Dario Amodei Anthropic (CEO) 2027-2028 (1-2 Years) Computing power and energy infrastructure; the software bottleneck is already breaking. "The 'closed loop' of AI self-evolution has begun. Engineers don't write code; they manage models that do."
Demis Hassabis Google DeepMind (CEO) 2030-2032 (5-10 Years) Transferring reasoning from digital axioms (math/code) to messy physical sciences. "Digital realms are crumbling fast, but scientific creativity and hypothesis generation remain elusive."
Yann LeCun Meta (Chief AI Scientist) >2035 (Skeptical of current path) The fundamental architecture of LLMs; lack of World Models and grounding. "LLMs are an off-ramp. A child learns physics from vision; models cannot learn it from text alone."

The Economic and Industrial Fallout

Дебаты в Давосе выходят далеко за рамки академических разногласий; они определяют, как триллионы долларов капитала в настоящее время распределяются. Если Amodei прав, мировая экономика всего в нескольких месяцах от «программной сингулярности», когда стоимость интеллекта опустится почти до нуля, что потребует немедленных обсуждений универсального базового дохода (UBI) и радикального корпоративного реструктурирования. Фокус Anthropic на корпоративном внедрении говорит о том, что они ставят всё на эту немедленную разрушительную способность.

И наоборот, если прав LeCun, текущий пузырь ИИ — подпитываемый предположением, что увеличение параметров равно увеличению интеллекта — рискует лопнуть. Компании, вкладывающие миллиарды в GPU-кластеры для обучения LLM, могут столкнуться с убывающей отдачей, вынуждая поворачиваться к радикально другим архитектурам, которые исследует Meta. Это бы подтвердило более фрагментированный, экспериментальный подход сообщества с открытым исходным кодом против монолитного масштабирования моделей, практикуемого OpenAI и Anthropic.

Hassabis предлагает средний путь, который, возможно, наиболее приемлем для элиты Давоса: постепенная, но рискованная эволюция, при которой ИИ открывает прорывы в пост-дефицитных областях энергетики (термоядерный синтез) и биологии (продление жизни), прежде чем полностью заменит человеческое мышление. Его видение согласуется с глубокой интеграцией ИИ в инфраструктуру Google, предлагая будущее, где ИИ — инструмент научного изобилия, а не просто замена беловоротничковой работы.

Conclusion: The Fractured Consensus

Когда делегаты покидали Конгресс-центр, консенсус, который когда-то объединял сообщество ИИ — «масштаб это всё, что нужно» — выглядел явно расколотым. Дебаты в Давосе 2026 года подчеркнули, что хотя пункт назначения (AGI) остаётся общим, средство и карта — предметы ожесточённых споров.

Для аудитории Creati.ai вывод ясен: следующие 12 месяцев станут проверочным полем. Если модели Anthropic начнут автономно писать превосходное программное обеспечение, таймлайн Amodei будет оправдан. Если прогресс застопорится и галлюцинации сохранятся, призыв LeCun к новой архитектуре усилится. Мы больше не ждём, пока будущее ИИ будет написано; мы наблюдаем, как его обсуждают в реальном времени, а судьба глобальной экономики висит на волоске.

Рекомендуемые