
Пересечение национальной обороны и искусственного интеллекта (Artificial Intelligence, AI) достигло критической точки на этой неделе. После ряда операционных трений Министерство обороны США (Department of Defense, DoD) по сообщениям предпринимает шаги по разрыву отношений с Anthropic, исследовательской лабораторией безопасности ИИ из Сан-Франциско и создателем серии языковых моделей Claude. Источники, близкие к переговорам, указывают на то, что Пентагон выдвинул жесткий ультиматум: убрать этические барьеры, ограничивающие применение ИИ в боевых сценариях, или столкнуться с немедленным прекращением государственных контрактов.
Это событие знаменует собой значительную эскалацию сохраняющейся напряженности между этическими принципами Кремниевой долины и стратегическими потребностями Вашингтона. Как сообщают крупные издания, включая The Guardian и NDTV, катализатором этого разрыва, по всей видимости, стал конкретный операционный сбой во время недавнего военного столкновения в Венесуэле, где протоколы безопасности, встроенные в модели Anthropic, якобы помешали принятию решений в режиме реального времени.
Для Creati.ai это противостояние представляет собой нечто большее, чем просто деловой спор; это определяющий момент для будущего технологий «двойного назначения». Результат, вероятно, создаст прецедент того, как компании, занимающиеся ИИ, будут ориентироваться в мутных водах оборонных заказов, пытаясь при этом сохранять приверженность безопасности ИИ.
Хотя напряженность нарастала месяцами, точка кипения наступила после секретной операции в Венесуэле в начале февраля 2026 года. Согласно следственным отчетам, силы специального назначения США попытались использовать модифицированный экземпляр продвинутой модели Claude от Anthropic для анализа данных наблюдения в реальном времени и координации логистики дронов во время рейда с высокими ставками.
Однако система, по сообщениям, отказалась обрабатывать конкретные запросы по наведению на цель, пометив команды как нарушение своей структуры «Конституционного ИИ» (Constitutional AI) — набора принципов, разработанных для предотвращения помощи модели в причинении вреда или насилии. Отказ вынудил командиров вернуться к ручной обработке данных, что привело к критическим задержкам. Хотя Министерство обороны официально не рассекретило детали миссии, инсайдеры предполагают, что задержка способствовала потере тактического преимущества.
Этот инцидент придал смелости сторонникам жесткой линии в Пентагоне, которые утверждают, что «прогрессивный ИИ» (woke AI) является обузой в современной войне. Аргумент прост: в эпоху алгоритмических войн инструмент, который колеблется из-за этических подпрограмм, — это инструмент, которому нельзя доверять на поле боя.
В основе спора лежит фундаментальное несоответствие между философией продукта Anthropic и военной доктриной Совместного общедоменного командования и управления (Joint All-Domain Command and Control, JADC2).
Anthropic выделилась на переполненном рынке ИИ, уделяя приоритетное внимание безопасности. Их подход «Конституционный ИИ» включает обучение моделей в соответствии с набором этических правил, производных от Декларации прав человека ООН и других рамок. Эти правила в явном виде запрещают генерацию контента, поощряющего насилие или помогающего в развертывании оружия.
Напротив, Пентагону требуются системы ИИ, функционирующие как агностические множители силы. Им требуются модели, способные:
Министерство обороны рассматривает ограничения, наложенные Anthropic, не как функции безопасности, а как «ухудшители возможностей». В таблице ниже приведены конкретные расхождения, вызывающие трения.
Таблица: Идеологический разрыв между Anthropic и Пентагоном
| Функция/Требование | Позиция Anthropic по «Конституционному ИИ» | Оперативные требования Пентагона |
|---|---|---|
| Летальное применение | Строго запрещено; модель отказывается содействовать в насилии. | Необходимо; модель должна поддерживать системы вооружения и целеуказание. |
| Командная перегрузка | Невозможна по замыслу; безопасность жестко закодирована. | Обязательна; люди-командиры должны иметь полный контроль. |
| Конфиденциальность данных | Высокая; строгие лимиты на обработку данных наблюдения. | Переменная; требует обработки разведывательных данных, связанных с вмешательством в частную жизнь. |
| Скорость развертывания | Замедляется оценками безопасности и проверками (red-teaming). | Немедленная; требуется «скорость релевантности» в конфликте. |
| Этическая основа | Всеобщие права человека / Сокращение вреда. | Национальная безопасность / Успех миссии. |
Угроза Пентагона не является чисто риторической. Сообщается, что официальные лица оборонного ведомства подготовили директиву, которая дисквалифицирует поставщиков, чьи Лицензионные соглашения с конечным пользователем (EULA) ограничивают «законное военное применение» их технологий.
В случае исполнения эта политика приведет к:
Высокопоставленный представитель министерства обороны, пожелавший остаться анонимным, заявил: «Мы не можем иметь программное обеспечение, которое ведет себя как сознательный отказчик посреди перестрелки. Нам нужно соответствие требованиям, а не философия».
Давление на Anthropic усиливается, так как ее конкуренты уже перестраиваются под нужды военных. OpenAI, ранее проявлявшая нерешительность, в начале 2024 года тихо удалила запрет на «военные действия и ведение войны» из своих политик использования. К 2026 году OpenAI начала активно развивать партнерство с Министерством обороны, позиционируя свои модели как «готовые к выполнению задач».
Google, несмотря на историческое внутреннее сопротивление (такое как протесты сотрудников в 2018 году по поводу Project Maven), также агрессивно борется за оборонные контракты в рамках своего подразделения Google Public Sector.
Anthropic остается одной из последних крупных лабораторий ИИ, придерживающихся жесткой линии против летального использования. Если они капитулируют, это ознаменует конец эры «пацифизма ИИ» в Кремниевой долине. Если они выстоят, то рискуют потерять одного из крупнейших в мире заказчиков и оказаться на обочине в государственном секторе.
Для ИИ-сообщества эти новости поднимают глубокие вопросы о концепции технологий «двойного назначения». Может ли модель быть по-настоящему безопасной, если ее можно превратить в оружие? И наоборот, может ли нация оставаться в безопасности, если ее самым передовым технологиям запрещено защищать её?
Аргументы в пользу позиции Пентагона:
Аргументы в пользу позиции Anthropic:
Доктор Елена Корвес (Elena Corves), старший научный сотрудник Центра новой американской безопасности (CNAS), сообщила Creati.ai:
«Это было неизбежно. Нельзя построить самые мощные когнитивные движки в истории и ожидать, что военные их проигнорируют. Anthropic играет в "гляделки" с самым могущественным институтом в мире. Хотя их этическая позиция заслуживает восхищения, Пентагон обычно выигрывает в таких противостояниях. Наиболее вероятный исход — это разделение: Anthropic, возможно, придется создать версию Claude для "правительственного облака" с урезанными фильтрами безопасности или полностью уйти из оборонного сектора».
Однако другие утверждают, что у Anthropic есть рычаги влияния. Сообщается, что возможности когнитивного мышления серии Claude 5 превосходят конкурентов в обработке сложной, нюансированной логики — именно того, что нужно аналитикам разведки. Если Пентагон разорвет связи, он потеряет доступ к возможностям высшего уровня.
Пока переговоры продолжаются за закрытыми дверями в Вашингтоне, исход остается неопределенным. Крайний срок для ответа Anthropic на новые требования Пентагона по соответствию установлен на конец февраля 2026 года.
Если Anthropic откажется, мы можем увидеть раздвоенный ландшафт ИИ:
На данный момент «Инцидент в Венесуэле» служит суровым предупреждением: эра теоретической этики ИИ закончилась. Технология теперь на передовой, и правила ведения боя пишутся в режиме реального времени.
Creati.ai продолжит следить за развитием этой истории, предоставляя обновленную информацию по мере публикации официальных заявлений как от Anthropic, так и от Министерства обороны.