AI News

Meta's Superintelligence Labs Unveils 'Avocado' and 'Mango': A Pivot to Autonomous World Models

ДАВОС — В решительном шаге, чтобы вернуть себе позицию на передовой искусственного интеллекта, Meta Platforms нарушила молчание относительно первых крупных результатов своей секретной структуры Superintelligence Labs (MSL). Выступая на Всемирном экономическом форуме в Давосе на этой неделе, технический директор (CTO) Эндрю Босворт сообщил, что компании удалось добиться значительных внутренних прорывов с двумя разными моделями ИИ: Project Avocado, модель следующего поколения для работы с текстом, оптимизированная для высокоуровневого рассуждения, и Project Mango, система визуального интеллекта, построенная на архитектуре «модель мира (World Model)».

Это объявление отмечает критический перелом для Meta. После смешанной реакции на Llama 4 в середине 2025 года генеральный директор Марк Цукерберг провёл масштабную реорганизацию, создав Superintelligence Labs под руководством Александра Ванга. Дебют Avocado и Mango сигнализирует о том, что агрессивный набор талантов и инвестиции в инфраструктуру начинают приносить плоды, а публичный релиз намечен на первый квартал 2026 года.

The Superintelligence Mandate: A Strategic Pivot

Создание Meta Superintelligence Labs означало фундаментальный сдвиг в философии ИИ компании. Отходя от сугубо продуктово-ориентированной интеграции ранних версий Llama, MSL получила единую задачу: достижение автономности и глубокого рассуждения.

Дорожная карта, представленная в Давосе, предполагает, что Meta больше не удовлетворяется простым обеспечением чат-ботов в Instagram и WhatsApp. Вместо этого компания делает поворот в сторону «агентных (agentic)» систем — ИИ, который может планировать, рассуждать и выполнять сложные задачи на длительных горизонтах.

«Индустрия уперлась в стену с постепенным масштабированием», — отметил Босворт в своей речи. «С Avocado и Mango мы не просто предсказываем следующий токен; мы моделируем базовую логику физического и цифрового миров».

Project Avocado: Mastering Code and Logic

Project Avocado представляет собой прямой ответ Meta на растущий спрос на возможности ИИ в разработке программного обеспечения и сложных логических выводах. В отличие от предшественников, которые были универсальными омни-моделями, Avocado был донастроен специально для устранения «пробела в рассуждении», который преследовал предыдущие модели с открытым исходным кодом.

Beyond Pattern Matching

Внутренние отчёты свидетельствуют о том, что Avocado использует новую архитектуру, которая на этапе предобучения приоритизирует обработку цепочек рассуждений (Chain of Thought, CoT), а не только на этапе вывода. Это позволяет модели:

  • Самостоятельно исправлять код: выявлять и исправлять уязвимости в циклах программ без вмешательства человека.
  • Многошаговое планирование: разлагать сложные логические запросы на исполнимые подзадачи с большей точностью, чем модели класса GPT-5.
  • Сохранение контекста: поддерживать связные потоки логики в значительно более длинных окнах контекста, что необходимо для корпоративных применений.

Сосредоточившись на кодировании и логике, Meta стремится завоевать рынок разработчиков, который всё больше консолидируется вокруг проприетарных закрытых моделей.

Project Mango: The Physics of Visual Intelligence

В то время как Avocado решает абстрактные задачи, Project Mango занимается конкретикой. Описываемый как «модель мира (World Model)», а не просто генератор изображений, Mango разработан для понимания физики, причинности и временной непрерывности физического мира.

The 'World Model' Advantage

Текущие генеративные видео-модели часто сталкиваются с «галлюцинациями», когда объекты нереалистично трансформируются или нарушают законы гравитации. Project Mango пытается решить это, изучая законы физики вместе с генерацией пикселей.

  • Временная согласованность: объекты в видео, сгенерированных Mango, сохраняют форму, массу и скорость во времени.
  • Интерактивность: ранние демонстрации намекают на возможность для пользователей «взаимодействовать» с генерируемыми сценами, изменяя параметры (например, освещение или расположение объектов), в то время как модель в реальном времени пересчитывает физический результат.
  • Нативная мультимодальность: Mango — не просто текст-видео; он принимает видео на вход для анализа и предсказания будущих кадров, эффективно выступая в роли симулятора реальных сценариев.

Comparative Analysis: The New Landscape

Появление этих моделей ставит Meta в прямую конфронтацию с текущими лидерами отрасли. Следующее сравнение подчёркивает, чем Avocado и Mango отличаются от существующей экосистемы.

Table 1: Competitive Landscape Analysis (Projected Specs)

Model / Project Primary Focus Key Differentiator Target Architecture
Meta Project Avocado Логика и кодирование Глубокое рассуждение и самокоррекция Трансформер с интегрированной цепочкой рассуждений (CoT-Integrated Transformer)
Meta Project Mango Визуальная симуляция Физически основанная «модель мира (World Model)» Латентная диффузия + физический движок
OpenAI o-Series Общее рассуждение Широкая база знаний Reinforcement Learning
Google Gemini Ultra Мультимодальная интеграция Нативная мультимодальная обработка Mixture-of-Experts (MoE)

Strategic Implications for the AI Industry

Релиз Avocado и Mango — это больше, чем запуск продукта; это верификация противоречивого «года интенсивности» Meta. Решение привлечь внешнее руководство, такое как Александр Ванг, и крупные капитальные затраты на кластеры H200, по-видимому, скорректировали курс после неудачи с Llama 4.

The Open Source Question

Остаётся критический вопрос: откроет ли Meta исходные веса Avocado и Mango?
Исторически Meta выступала за открытые веса. Однако продвинутые возможности этих моделей — особенно потенциал Mango для реалистичной симуляции и кибер-офенсивные возможности Avocado — могут заставить сменить стратегию. Босворт намекнул на «многоуровневый выпуск» (tiered release), возможно, оставив самые мощные версии этих моделей для корпоративных партнёров или выпуская их под более строгими лицензиями безопасности.

Road to Release: Q1 2026 and Beyond

По мере приближения планируемого релиза в первом квартале 2026 года индустрия готовится к новой волне конкуренции. Поворот Meta к «моделям мира (World Models)» и «агентным системам (Reasoning Agents)» предполагает, что следующая арена борьбы за лидерство в ИИ будет определяться не только тем, кто может генерировать лучший текст или изображение, но и тем, кто способен построить наиболее точную симуляцию реальности.

Development Timeline & Milestones

Phase Milestone Status Key Deliverables
Phase 1 Внутреннее обучение Завершено Проверена основная архитектура модели; использование кластера GPU >100k.
Phase 2 Red Teaming В процессе Согласование безопасности; противодействие тестированию уязвимостей в коде.
Phase 3 Партнёрская бета Q1 2026 (Planned) Доступ к API для избранных корпоративных партнёров; интеграция в Ray-Ban Meta смарт-очки.
Phase 4 Публичный релиз H1 2026 Выпуск открытых весов (TBD) или общая доступность API.

Для разработчиков и предприятий послание из Давоса ясно: Meta вернулась в гонку, и на этот раз они строят мир, где ИИ не просто общается — он действует.

Рекомендуемые