AI News

Разрыв статической парадигмы: Adaption Labs привлекает $50 млн для создания AI, который обучается в режиме реального времени

Решительным шагом, сигнализирующим о потенциальном отходе от одержимости индустрии масштабным увеличением моделей, Adaption Labs объявила о раунде посевного финансирования в размере 50 миллионов долларов под руководством Emergence Capital. Стартап, основанный бывшими руководителями Cohere Sara Hooker и Sudip Roy, выходит из режима скрытности с провокационным тезисом: будущее искусственного интеллекта заключается не в более крупных статических моделях, а в меньших динамических системах, способных обучаться «на лету».

Эта веха в финансировании представляет собой один из крупнейших посевных раундов 2026 года, подчеркивая значительный аппетит инвесторов к архитектурным прорывам, которые обещают решить проблемы эффективности и задержек (latency), в настоящее время мешающие внедрению корпоративного AI. С помощью этого капитала Adaption Labs стремится коммерциализировать свою запатентованную технологию «gradient-free» обучения, которая позволяет AI-агентам адаптироваться к новой информации и исправлять ошибки в режиме реального времени без ресурсозатратного процесса переобучения.

Конец эры «одержимости масштабированием»?

На протяжении последнего десятилетия доминирующая доктрина в исследованиях AI — часто называемая «scaling laws» (законами масштабирования) — была проста: больше данных и больше вычислительных мощностей (compute) равны лучшей производительности. Этот подход породил революцию генеративного AI, создав такие модели, как GPT-4 и Claude. Однако Sara Hooker, генеральный директор Adaption Labs, утверждает, что эта траектория упирается в стену снижения отдачи.

«Мы потратили годы на оптимизацию фазы обучения, создавая массивные замороженные артефакты, которые перестают учиться в тот момент, когда они развертываются», — заявила Hooker на пресс-брифинге после объявления. «Настоящий интеллект не статичен. Он адаптируется. Нынешняя парадигма переобучения модели с нуля каждый раз, когда меняются фактические данные или обнаруживается ошибка, экономически нецелесообразна и научно неэлегантна».

Hooker, известный исследователь, ранее работавшая в Google Brain и Cohere, наиболее известна своей работой над «The Hardware Lottery» — концепцией, детально описывающей, как аппаратные ограничения произвольно формируют направление исследований AI. Ее переход к Adaptive AI предполагает веру в то, что зависимость индустрии от циклов обучения с интенсивным использованием backpropagation становится скорее обузой, чем активом.

Технология: Объяснение Gradient-Free обучения

Основная инновация, лежащая в основе Adaption Labs, — это отход от традиционных методов gradient-based learning (таких как backpropagation) для адаптации после развертывания. В стандартных LLM обновление модели требует расчета градиентов по миллиардам параметров — это медленный, энергоемкий процесс, требующий огромных GPU-кластеров.

Adaption Labs создает модели «Adaptive AI», которые используют методы gradient-free learning. Хотя компания держит точные алгоритмические детали в секрете, этот подход, вероятно, использует эволюционные стратегии или методы оптимизации нулевого порядка, которые позволяют модели корректировать свое поведение на основе обратной связи от среды без необходимости полного обновления параметров.

Sudip Roy, сооснователь и технический директор, объяснил практическое значение: «Представьте себе AI-агента службы поддержки клиентов, который совершает ошибку. В нынешнем мире вам нужно зафиксировать эту ошибку, дождаться следующего цикла fine-tuning в следующем месяце и надеяться, что обновление ее исправит. Наши модели учатся на этом взаимодействии немедленно. Если вы скажете ему: "это неверно, используйте вместо этого вот это правило", он адаптирует свои веса на лету для этого конкретного контекста с незначительными вычислительными затратами».

Стратегическая поддержка и соответствие рынку

Инвестиции в размере 50 миллионов долларов от Emergence Capital — это весомый вотум доверия этому архитектурному повороту. Emergence, известная ранними ставками на знаковые SaaS-платформы, такие как Salesforce и Zoom, похоже, делает ставку на то, что следующий уровень ценности AI будет определяться эффективностью и адаптивностью, а не просто грубой мощью рассуждений.

Финансирование будет в первую очередь использовано для:

  1. Расширения исследовательской группы: Найма специалистов в области эволюционных алгоритмов, reinforcement learning и эффективного inference.
  2. Разработки «Adaption Engine»: Платформы для разработчиков, которая позволяет предприятиям дополнять существующие foundation models адаптивными слоями.
  3. Оптимизации оборудования: Обеспечения возможности запуска этих легких процессов обучения на edge-устройствах и стандартном потребительском оборудовании, минуя необходимость в кластерах H100 для каждого незначительного обновления.

Проблема «замороженной модели» против адаптивных решений

Чтобы понять масштаб проблемы, которую решает Adaption Labs, полезно противопоставить текущее состояние Large Language Models (LLM) видению Adaptive AI. Индустрия в настоящее время борется с «синдромом замороженной модели», когда модели стоимостью в миллиард долларов устаревают через несколько дней после завершения обучения.

Сравнение статических LLM и архитектур Adaptive AI

Характеристика Статические LLM (текущий стандарт) Adaptive AI (Adaption Labs)
Состояние обучения Заморожено после обучения Непрерывное обучение в режиме реального времени
Механизм обновления Retraining или Fine-tuning (Gradient-based) In-context адаптация (Gradient-free)
Задержка (Latency) Высокая (требует офлайн-обработки) Низкая (происходит во время inference)
Стоимость вычислений Экстремальная (требуются GPU-кластеры) Минимальная (может работать на edge/CPU)
Исправление ошибок Сохраняются до следующего обновления версии Немедленное исправление при обратной связи
Приватность данных Данные часто отправляются на центральный сервер Локальная адаптация сохраняет приватность

Основатели с проверенным послужным списком

Репутация команды основателей является значительным фактором в оценке компании. Sara Hooker занимала пост вице-президента по исследованиям в Cohere, где она возглавляла исследовательскую лабораторию «Cohere for AI», публикуя влиятельные статьи по pruning и эффективности моделей. Ее академический бэкграунд дает ей уникальный авторитет для того, чтобы бросить вызов догме масштабирования.

Sudip Roy, технический директор, привносит дополнительные знания в области системного инжиниринга и оптимизации inference. Занимая пост старшего директора в Cohere и исследователя в Google, Roy обладает глубоким опытом в практических сложностях обслуживания больших моделей для миллионов пользователей. Его внимание давно сосредоточено на пересечении эффективности и производительности, что делает его идеальным архитектором для системы, предназначенной для работы с минимальными ресурсами.

Последствия для предприятий

Для корпоративных клиентов обещания Adaption Labs носят не только академический, но и финансовый характер. Стоимость обслуживания крупномасштабных AI-приложений стремительно растет, во многом из-за затрат на inference и постоянной потребности в fine-tuning.

Если Adaption Labs добьется успеха, компании смогут развертывать меньшие и дешевые базовые модели, которые будут «расти» в своих ролях. Например, юридический AI может начать с общих знаний и за несколько недель корректировок со стороны старших партнеров превратиться в узкоспециализированного эксперта без единого GPU-затратного цикла обучения. Эта возможность «test-time training» эффективно переносит стоимость интеллекта от провайдера (обучающего массивные модели) в конкретный контекст пользователя, радикально снижая барьер входа для специализированных AI-агентов.

Дорога впереди

Хотя посевной раунд в 50 миллионов долларов обеспечивает существенный запас времени (runway), предстоящие технические задачи не являются тривиальными. Методы Gradient-free исторически с трудом достигали точности gradient-based обновлений в сложных задачах. Доказательство того, что адаптивный слой может поддерживать стабильность — гарантируя, что модель не «выучит» неправильные вещи и не пострадает от catastrophic forgetting — станет главным препятствием для компании в ближайший год.

Тем не менее, момент выбран очень удачно. Поскольку индустрия сталкивается с потенциальной нехваткой электроэнергии и непомерными затратами на циклы обучения следующего поколения, повествование смещается от «чем больше, тем лучше» к «чем умнее, тем дешевле». Adaption Labs позиционирует себя на переднем крае этой коррекции.

«Мы строим для мира, где AI — это не монолит, а живая, дышащая часть программного стека», — заключила Hooker. «Эра статических моделей закончена».

Рекомендуемые