AI News

Над OpenAI сгущаются тучи регуляторного контроля в связи с последним релизом

OpenAI оказалась в центре потенциального судебного разбирательства, создающего прецедент, после выпуска своей последней флагманской модели для программирования GPT-5.3-Codex. Споры вспыхнули на этой неделе, когда группа по надзору за ИИ The Midas Project официально заявила, что гигант в сфере искусственного интеллекта нарушил недавно принятое в Калифорнии законодательство о безопасности ИИ — SB 53 (Закон о прозрачности передовых систем ИИ / Transparency in Frontier AI Act). Спор сосредоточен вокруг классификации модели как системы с «Высоким» (High) риском кибербезопасности — рейтинга, подтвержденного генеральным директором OpenAI Сэмом Альтманом (Sam Altman), — и того, внедрила ли компания необходимые меры предосторожности, требуемые законом для таких мощных систем.

Релиз GPT-5.3-Codex, который состоялся одновременно с выпуском более компактного варианта с низкой задержкой под названием GPT-5.3-Codex-Spark, знаменует собой значительный скачок в «агентных» (agentic) возможностях. Однако время запуска, всего через несколько недель после того, как 1 января 2026 года вступили в силу строгие новые протоколы прозрачности и безопасности Калифорнии, превратило технологическое достижение в лакмусовую бумажку для регулирования ИИ на уровне штата.

Обвинения: высокий риск и недостаточные защитные механизмы

Суть жалобы, поданной The Midas Project, основывается на конкретных положениях калифорнийского закона SB 53. Закон, подписанный губернатором Гэвином Ньюсомом в конце 2025 года, предписывает разработчикам «передовых моделей» (frontier models) — определяемых по конкретным порогам вычислений и возможностей — не только публиковать структуру безопасности, но и строго ее придерживаться. Закон прямо запрещает компаниям выпускать модели, которые не соответствуют критериям безопасности, изложенным в их собственных документах по управлению.

По данным группы по надзору, внутренняя «Структура обеспечения готовности» (Preparedness Framework) компании OpenAI классифицирует GPT-5.3-Codex как модель с «Высоким» риском в области кибербезопасности. Эта классификация предполагает, что модель обладает возможностями, которые потенциально могут помочь в проведении масштабных кибератак, если они не будут должным образом ограничены. The Midas Project утверждает, что согласно собственным обязательствам OpenAI по безопасности, модель с таким специфическим профилем риска не должна была развертываться без средств контроля доступа «военного уровня» (military-grade) и более строгих, продолжительных этапов ред-тиминга (red-teaming), чем те, что наблюдались на практике.

«OpenAI фактически классифицирует модель как достаточно способную в программировании, чтобы потенциально способствовать значительному кибер-ущербу», — заявил представитель The Midas Project. «Выпустив ее без необходимых защитных мер против высокоуровневых угроз, подробно описанных в их январской отчетности, они прямо нарушают SB 53. Это именно то, для предотвращения чего был разработан закон: чтобы компании не проверяли свои собственные домашние задания, а затем игнорировали неудовлетворительную оценку».

GPT-5.3-Codex: прорыв в агентном программировании

Несмотря на регуляторное давление, технические достижения GPT-5.3-Codex неоспоримы. Выпущенная для прямой конкуренции с недавно дебютировавшей моделью Claude 4.6-Opus от Anthropic, новая модель OpenAI представляет собой переход от пассивной генерации кода к активным «агентным» рабочим процессам.

OpenAI описывает GPT-5.3-Codex как свою «самую функциональную агентную модель для программирования на сегодняшний день», заявляя о 25-процентном увеличении скорости по сравнению с предшественницей, GPT-5.2. В отличие от предыдущих итераций, которые просто дополняли фрагменты кода, GPT-5.3 разработана для работы в качестве полноценного члена команды. Она может ориентироваться в сложных жизненных циклах разработки программного обеспечения, отлаживать собственные выходные данные и даже автономно управлять конвейерами развертывания.

Шагом, который удивил аппаратных аналитиков, стал запуск OpenAI GPT-5.3-Codex-Spark — специализированной версии модели, оптимизированной для взаимодействия в реальном времени с низкой задержкой. Этот вариант работает на чипах от Cerebras Systems, что стало первым крупным производственным развертыванием OpenAI на оборудовании, отличном от Nvidia. Партнерство с Cerebras направлено на обеспечение «мгновенной» скорости логического вывода (inference), что критически важно для интерактивной среды программирования, которую обещает новое приложение Codex.

Стратегические последствия и реакция отрасли

Исход этого разбирательства может иметь далеко идущие последствия для сектора ИИ в США. Если калифорнийские регуляторы встанут на сторону The Midas Project, OpenAI может столкнуться со значительными штрафами — до 1 миллиона долларов за каждое нарушение — и потенциально будет вынуждена отозвать или сильно ограничить доступ к модели. Что еще более важно, это утвердит SB 53 как закон, имеющий реальную силу, сигнализируя об окончании эры саморегулирования для крупнейших лабораторий ИИ в Кремниевой долине.

Sam Altman защитил релиз, заявив, что, хотя модель и находится в категории «Высокого» риска по своим возможностям, риски развертывания были смягчены с помощью новых протоколов сдерживания, которые отличаются от предыдущих структур, но остаются эффективными. «Мы соблюдаем дух и букву закона», — как сообщается, сказал Альтман сотрудникам. «Инновации не могут быть заложниками бюрократических интерпретаций метрик безопасности, которые мы сами же разработали и обновили».

Отрасль внимательно следит за развитием событий. Конкуренты, такие как Anthropic и Google, несомненно, анализируют, как Калифорния обеспечивает соблюдение SB 53, поскольку это будет диктовать темпы, с которыми передовые модели смогут выпускаться в ближайшем году.

Сравнительный анализ: основные конкуренты

Релиз GPT-5.3-Codex совпал с обновлением от Anthropic, создав острую конкуренцию на рынке инструментов для разработчиков. Ниже приведено сравнение ключевых аспектов моделей, определяющих ландшафт на текущий момент.

Сравнение передовых моделей для программирования начала 2026 года

Характеристика/Метрика OpenAI GPT-5.3-Codex Anthropic Claude 4.6-Opus Регуляторный статус
Основная специализация Агентные рабочие процессы, автономная отладка Генерация кода с приоритетом безопасности, большой контекст Под следствием (SB 53)
Архитектура Гибридная (Standard + Spark/Cerebras) Стандартный трансформер Соответствует требованиям (Низкий/Средний риск)
Классификация риска Высокий (Cybersecurity) Средний (общие возможности) Спорный
Ключевая инновация Самокорректирующиеся конвейеры развертывания Улучшенные рассуждения и этические барьеры Н/Д
Аппаратная зависимость Nvidia (Обучение) / Cerebras (Инф.) Google TPU / Nvidia Н/Д
Окно релиза 5–13 февраля 2026 г. Февраль 2026 г. Активен

Тестовый случай для управления ИИ

Столкновение между OpenAI и калифорнийскими регуляторами подчеркивает трения между стремительным технологическим ускорением и медленным, обдуманным темпом государственного управления. Закон SB 53 был разработан для того, чтобы по мере приближения моделей ИИ к «критическим» возможностям — таким как способность автоматизировать кибернаступления — мотивы корпоративной прибыли не преобладали над общественной безопасностью.

Критики закона утверждают, что он душит американские инновации, указывая на партнерство с Cerebras как на доказательство того, что компании из США раздвигают границы аппаратного и программного обеспечения, чтобы опережать глобальных конкурентов. Сторонники, однако, видят в этом моменте подтверждение своей правоты. «Если закон не может остановить выпуск модели, признанной "высокорискованной", без надлежащей системы безопасности», — отметили в The Midas Project, — «то структуры безопасности — это не более чем маркетинговые брошюры».

Пока генеральный прокурор Калифорнии рассматривает обвинения, сообщество ИИ ждет. Вердикт, вероятно, определит операционную реальность для каждой крупной лаборатории ИИ в 2026 году: строго придерживайтесь своих обещаний в области безопасности или столкнитесь со всей тяжестью закона.

Рекомендуемые