AI News

Путь в ином направлении: предупреждение LeCun для индустрии ИИ

В шаге, который произвёл эффект разорвавшейся бомбы в сообществе искусственного интеллекта, Yann LeCun, лауреат премии Тьюринга и бывший главный научный сотрудник по ИИ в Meta, сделал резкое предупреждение для технологического мира: одержимость отрасли Моделями больших языков (Large Language Models, LLMs) — это «тупик» на пути к истинному Общему искусственному интеллекту (Artificial General Intelligence, AGI). Откровенно рассуждая о нынешнем состоянии исследований в области ИИ, LeCun утверждал, что преобладающая стратегия простого масштабирования существующих архитектур — часто сводимая к фразе «просто добавьте больше GPU» — достигла точки убывающей отдачи.

Комментарии LeCun появились на фоне его поворота к новому предприятию, AMI Labs (Advanced Machine Intelligence), базирующемуся в Париже. Покинув исполнительную роль в Meta из‑за принципиальных разногласий по стратегическому курсу развития ИИ, LeCun теперь делает крупную ставку на альтернативную парадигму, известную как "Модели мира (World Models)". Его критика подразумевает, что хотя LLM, такие как GPT-4 и Llama, освоили статистические закономерности человеческого языка, им принципиально недостаёт способностей к рассуждению, физической интуиции и планированию, необходимых для интеллектуального функционирования в реальном мире.

«Тупик» моделей больших языков (LLMs)

В основе аргумента LeCun лежит присущее ограничение авторегрессивной (auto-regressive) природы LLM. Эти модели работают, предсказывая следующий токен в последовательности на основе предшествующего контекста. LeCun предполагает, что этот механизм недостаточен для подлинного интеллекта, потому что он не включает внутреннюю симуляцию реальности.

«LLM не понимает, что если толкнуть стакан со стола, он разобьётся», — объяснил LeCun в недавнем интервью. «Он лишь знает, что слова «стекло» и «разбиться» часто встречаются вместе в таком контексте. Он имитирует рассуждение, не обладая им на самом деле».

Аналогия с «домашней кошкой»

Чтобы проиллюстрировать дефицит, LeCun часто использует аналогию с «домашней кошкой». Он отмечает, что обычная домашняя кошка обладает гораздо более сложным пониманием физического мира — гравитации, импульса, постоянства объектов — чем крупнейшие LLM. Кошка может спланировать прыжок, предвидеть устойчивость поверхности приземления и корректировать свои движения в реальном времени. В отличие от этого, LLM, обученная на триллионах слов, не может «планировать» в каком‑либо существенном смысле; она лишь галлюцинирует правдоподобно звучащий нарратив плана.

Проблема галлюцинаций

LeCun утверждает, что галлюцинации — случаи, когда модели уверенно генерируют ложную информацию — это не просто баги, которые можно исправить большим объёмом данных или Усиленным обучением с подкреплением с обратной связью от человека (Reinforcement Learning from Human Feedback, RLHF). Скорее, это особенность вероятностной архитектуры. Поскольку модель постоянно «подбрасывает кости», выбирая следующее слово, существует ненулевая вероятность отклонения от фактической реальности, которая увеличивается по мере роста длины генерируемого текста. LeCun настаивает, что для приложений с критическими требованиями к безопасности такая непредсказуемость неприемлема.

Появление Моделей мира: архитектура JEPA

Предлагаемое LeCun решение — сдвиг в сторону «Моделей мира», в частности с использованием архитектуры, которую он называет Совместной встраивающе‑предсказательной архитектурой (Joint Embedding Predictive Architecture, JEPA). В отличие от LLM, которые работают в дискретном пространстве текстовых токенов, JEPA оперирует в абстрактном пространстве представлений.

Основная идея Модели мира — симулировать причинно‑следственные связи среды. Вместо предсказания следующего пикселя или слова (что вычислительно дорого и подвержено шуму), Модель мира предсказывает состояние мира в абстрактном пространстве признаков. Это позволяет системе игнорировать несущественные детали — например, движение листьев на ветру за машиной — и сосредоточиться на релевантных агентах и объектах.

ИИ, ориентированный на цели

Этот подход прокладывает путь для того, что LeCun называет «ИИ, ориентированный на цели (Objective-Driven AI)». В этой концепции агент ИИ — это не просто пассивный предсказатель, а активный планировщик. Он разбивает высокоуровневую цель (например, «приготовить еду») на последовательность подцелей, используя свою внутреннюю Модель мира для симуляции результатов различных действий перед их выполнением. Этот цикл «симуляция до действия» — способ функционирования биологических мозгов и, по мнению LeCun, единственный жизнеспособный путь к AGI.

Разрыв в эффективности

Ещё одним ключевым моментом расхождения является эффективность по данным. LeCun подчёркивает огромную диспропорцию между обучением человека и обучением LLM.

  • Обучение LLM: Требует текстовых данных, эквивалентных тысячам человеческих жизней чтения.
  • Обучение человека: Четырёхлетний ребёнок видел примерно в 50 раз больше данных, чем LLM, но большая часть этих данных — визуальные и сенсорные, а не текстовые.

Ребёнок усваивает «здравый смысл» — что объекты не исчезают, когда ты закрываешь глаза, что неподдерживаемые предметы падают — через взаимодействие и наблюдение, в основном без надзора. AMI Labs LeCun намерены воспроизвести это самообучение (self-supervised learning) из видео и сенсорных данных, обходя узкое место в виде размеченного человеком текста.

Последствия для индустрии и «мышление стада»

Позиция LeCun ставит его в противоречие с текущим импульсом Кремниевой долины. Компании, такие как OpenAI, Google и даже Meta (под новым руководством по ИИ), продолжают вкладывать миллиарды в строительство больших дата‑центров и обучение более крупных трансформеров. LeCun характеризует это как «мышление стада», предупреждая, что отрасль идёт к плато, где добавление вычислительных ресурсов даст незначительный прирост возможностей рассуждения.

Этот раскол представляет собой фундаментальную ставку на будущее технологий. С одной стороны — Гипотеза масштабирования (Scaling Hypothesis) — вера в то, что интеллект возникает благодаря массовому масштабированию. С другой стороны — Гипотеза архитектуры (Architecture Hypothesis) LeCun — убеждение, что нам нужна принципиально новая схема, имитирующая иерархическую и предсказательную структуру коры млекопитающих.

Дорога к Общему искусственному интеллекту

Пока индустрия славит возможности генеративных чат‑ботов, LeCun предупреждает, что мы всё ещё далеки от машин, обладающих «Advanced Machine Intelligence». Он предсказывает, что переход от LLM к Моделям мира будет необходим, чтобы создать системы, которые могут надёжно рассуждать, планировать и понимать физический мир.

Запуск AMI Labs знаменует новую главу в этом дебате. При значительном финансировании и команде исследователей, посвящённых архитектуре JEPA, LeCun переходит от критики к конструктивной работе. Будет ли его видение Моделей мира превосходить нынешнее доминирование LLM — покажет время, но его предупреждение служит важной проверкой предположения, что путь к AGI — это прямая линия, проведённая законами масштабирования.

Сравнение: LLM против Моделей мира

Feature Модели больших языков (LLMs) Модели мира (JEPA)
Core Mechanism авторегрессивное предсказание следующего токена предсказание абстрактных представлений
Primary Data Source текст (масштаб интернета) сенсорные данные (видео, аудио, физическое взаимодействие)
Reasoning Capability имитирует рассуждение через сопоставление паттернов моделирует причинно‑следственные связи
Handling Reality подвержены галлюцинациям; отсутствует внутренняя модель истины внутренняя симуляция физических ограничений
Efficiency низкая; требует огромных объёмов данных для базовой компетентности высокая; нацелена на эффективность обучения, близкую к человеческой

Заключение

Yann LeCun’s заявление о том, что LLM — это «тупик», — больше чем критика; это призыв к действию для исследователей посмотреть дальше сиюминутного удовольствия от чат‑ботов. Пока Creati.ai продолжает отслеживать эволюцию искусственного интеллекта, это расхождение между лагерями «Масштабирования» и «Моделей мира» вероятно определит следующее десятилетие инноваций. Если LeCun прав, следующий большой скачок в ИИ придёт не от более крупного чат‑бота, а от системы, которая наконец по‑настоящему понимает, как устроен мир.

Рекомендуемые