AI News

Ультиматум Пентагона: соблюдение требований или расторжение контракта для Anthropic

Пересечение национальной обороны и искусственного интеллекта (Artificial Intelligence, AI) достигло критической точки на этой неделе. После ряда операционных трений Министерство обороны США (Department of Defense, DoD) по сообщениям предпринимает шаги по разрыву отношений с Anthropic, исследовательской лабораторией безопасности ИИ из Сан-Франциско и создателем серии языковых моделей Claude. Источники, близкие к переговорам, указывают на то, что Пентагон выдвинул жесткий ультиматум: убрать этические барьеры, ограничивающие применение ИИ в боевых сценариях, или столкнуться с немедленным прекращением государственных контрактов.

Это событие знаменует собой значительную эскалацию сохраняющейся напряженности между этическими принципами Кремниевой долины и стратегическими потребностями Вашингтона. Как сообщают крупные издания, включая The Guardian и NDTV, катализатором этого разрыва, по всей видимости, стал конкретный операционный сбой во время недавнего военного столкновения в Венесуэле, где протоколы безопасности, встроенные в модели Anthropic, якобы помешали принятию решений в режиме реального времени.

Для Creati.ai это противостояние представляет собой нечто большее, чем просто деловой спор; это определяющий момент для будущего технологий «двойного назначения». Результат, вероятно, создаст прецедент того, как компании, занимающиеся ИИ, будут ориентироваться в мутных водах оборонных заказов, пытаясь при этом сохранять приверженность безопасности ИИ.

Катализатор: Инцидент в Венесуэле

Хотя напряженность нарастала месяцами, точка кипения наступила после секретной операции в Венесуэле в начале февраля 2026 года. Согласно следственным отчетам, силы специального назначения США попытались использовать модифицированный экземпляр продвинутой модели Claude от Anthropic для анализа данных наблюдения в реальном времени и координации логистики дронов во время рейда с высокими ставками.

Однако система, по сообщениям, отказалась обрабатывать конкретные запросы по наведению на цель, пометив команды как нарушение своей структуры «Конституционного ИИ» (Constitutional AI) — набора принципов, разработанных для предотвращения помощи модели в причинении вреда или насилии. Отказ вынудил командиров вернуться к ручной обработке данных, что привело к критическим задержкам. Хотя Министерство обороны официально не рассекретило детали миссии, инсайдеры предполагают, что задержка способствовала потере тактического преимущества.

Этот инцидент придал смелости сторонникам жесткой линии в Пентагоне, которые утверждают, что «прогрессивный ИИ» (woke AI) является обузой в современной войне. Аргумент прост: в эпоху алгоритмических войн инструмент, который колеблется из-за этических подпрограмм, — это инструмент, которому нельзя доверять на поле боя.

Суть конфликта: Конституционный ИИ против JADC2

В основе спора лежит фундаментальное несоответствие между философией продукта Anthropic и военной доктриной Совместного общедоменного командования и управления (Joint All-Domain Command and Control, JADC2).

Anthropic выделилась на переполненном рынке ИИ, уделяя приоритетное внимание безопасности. Их подход «Конституционный ИИ» включает обучение моделей в соответствии с набором этических правил, производных от Декларации прав человека ООН и других рамок. Эти правила в явном виде запрещают генерацию контента, поощряющего насилие или помогающего в развертывании оружия.

Напротив, Пентагону требуются системы ИИ, функционирующие как агностические множители силы. Им требуются модели, способные:

  • Оптимизировать цепочки поражения (kill chains).
  • Анализировать летальность на поле боя.
  • Генерировать код для наступательных киберопераций.

Министерство обороны рассматривает ограничения, наложенные Anthropic, не как функции безопасности, а как «ухудшители возможностей». В таблице ниже приведены конкретные расхождения, вызывающие трения.

Таблица: Идеологический разрыв между Anthropic и Пентагоном

Функция/Требование Позиция Anthropic по «Конституционному ИИ» Оперативные требования Пентагона
Летальное применение Строго запрещено; модель отказывается содействовать в насилии. Необходимо; модель должна поддерживать системы вооружения и целеуказание.
Командная перегрузка Невозможна по замыслу; безопасность жестко закодирована. Обязательна; люди-командиры должны иметь полный контроль.
Конфиденциальность данных Высокая; строгие лимиты на обработку данных наблюдения. Переменная; требует обработки разведывательных данных, связанных с вмешательством в частную жизнь.
Скорость развертывания Замедляется оценками безопасности и проверками (red-teaming). Немедленная; требуется «скорость релевантности» в конфликте.
Этическая основа Всеобщие права человека / Сокращение вреда. Национальная безопасность / Успех миссии.

Детали ультиматума

Угроза Пентагона не является чисто риторической. Сообщается, что официальные лица оборонного ведомства подготовили директиву, которая дисквалифицирует поставщиков, чьи Лицензионные соглашения с конечным пользователем (EULA) ограничивают «законное военное применение» их технологий.

В случае исполнения эта политика приведет к:

  1. Заморозке текущих контрактов: Anthropic потеряет свои текущие пилотные программы с Подразделением оборонных инноваций (DIU).
  2. Черному списку для будущих тендеров: Компания не сможет участвовать в предстоящей инициативе «Project Maven II» стоимостью 10 миллиардов долларов.
  3. Перераспределению финансирования конкурентам: Средства будут перенаправлены оборонно-ориентированным ИИ-фирмам, таким как Palantir, Anduril или Shield AI, которые не налагают подобных ограничений.

Высокопоставленный представитель министерства обороны, пожелавший остаться анонимным, заявил: «Мы не можем иметь программное обеспечение, которое ведет себя как сознательный отказчик посреди перестрелки. Нам нужно соответствие требованиям, а не философия».

Последствия для индустрии: OpenAI и Google

Давление на Anthropic усиливается, так как ее конкуренты уже перестраиваются под нужды военных. OpenAI, ранее проявлявшая нерешительность, в начале 2024 года тихо удалила запрет на «военные действия и ведение войны» из своих политик использования. К 2026 году OpenAI начала активно развивать партнерство с Министерством обороны, позиционируя свои модели как «готовые к выполнению задач».

Google, несмотря на историческое внутреннее сопротивление (такое как протесты сотрудников в 2018 году по поводу Project Maven), также агрессивно борется за оборонные контракты в рамках своего подразделения Google Public Sector.

Anthropic остается одной из последних крупных лабораторий ИИ, придерживающихся жесткой линии против летального использования. Если они капитулируют, это ознаменует конец эры «пацифизма ИИ» в Кремниевой долине. Если они выстоят, то рискуют потерять одного из крупнейших в мире заказчиков и оказаться на обочине в государственном секторе.

Этическая дилемма: безопасность или суверенитет?

Для ИИ-сообщества эти новости поднимают глубокие вопросы о концепции технологий «двойного назначения». Может ли модель быть по-настоящему безопасной, если ее можно превратить в оружие? И наоборот, может ли нация оставаться в безопасности, если ее самым передовым технологиям запрещено защищать её?

Аргументы в пользу позиции Пентагона:

  • Геополитическая конкуренция: Противники, такие как Китай и Россия, интегрируют ИИ в свои вооруженные силы без этических ограничений. США рискуют получить «разрыв в сдерживании», если будут ограничивать собственные системы.
  • Оперативная необходимость: В условиях скоротечной войны задержки, вносимые этическими фильтрами, могут стоить жизней.

Аргументы в пользу позиции Anthropic:

  • Риск распространения: Позволение ИИ оптимизировать ведение войны снижает барьер для начала конфликта и может привести к неконтролируемой эскалации.
  • Моральная ответственность: Создатели технологий обязаны гарантировать, что их изобретения не способствуют массовому причинению вреда.
  • Целостность бренда: Репутация Anthropic строится на доверии и безопасности. Отказ от этих принципов может оттолкнуть корпоративных клиентов и лучшие исследовательские таланты.

Экспертный анализ

Доктор Елена Корвес (Elena Corves), старший научный сотрудник Центра новой американской безопасности (CNAS), сообщила Creati.ai:

«Это было неизбежно. Нельзя построить самые мощные когнитивные движки в истории и ожидать, что военные их проигнорируют. Anthropic играет в "гляделки" с самым могущественным институтом в мире. Хотя их этическая позиция заслуживает восхищения, Пентагон обычно выигрывает в таких противостояниях. Наиболее вероятный исход — это разделение: Anthropic, возможно, придется создать версию Claude для "правительственного облака" с урезанными фильтрами безопасности или полностью уйти из оборонного сектора».

Однако другие утверждают, что у Anthropic есть рычаги влияния. Сообщается, что возможности когнитивного мышления серии Claude 5 превосходят конкурентов в обработке сложной, нюансированной логики — именно того, что нужно аналитикам разведки. Если Пентагон разорвет связи, он потеряет доступ к возможностям высшего уровня.

Что дальше?

Пока переговоры продолжаются за закрытыми дверями в Вашингтоне, исход остается неопределенным. Крайний срок для ответа Anthropic на новые требования Пентагона по соответствию установлен на конец февраля 2026 года.

Если Anthropic откажется, мы можем увидеть раздвоенный ландшафт ИИ:

  1. Коммерческий ИИ: Безопасный, выровненный и ограниченный (доминирует Anthropic).
  2. Суверенный ИИ: Неограниченный, летальный и контролируемый государством (доминируют оборонные подрядчики и лояльные технологические гиганты).

На данный момент «Инцидент в Венесуэле» служит суровым предупреждением: эра теоретической этики ИИ закончилась. Технология теперь на передовой, и правила ведения боя пишутся в режиме реального времени.

Creati.ai продолжит следить за развитием этой истории, предоставляя обновленную информацию по мере публикации официальных заявлений как от Anthropic, так и от Министерства обороны.

Рекомендуемые