
Вашингтон, округ Колумбия. – В рамках значительного сдвига в технологической политике Соединенных Штатов лидеры Конгресса отходят от идеи широких пауз в разработке искусственного интеллекта (Artificial Intelligence, ИИ), отдавая предпочтение нюансированной отраслевой нормативной базе. Выступая на этой неделе на саммите по вопросам политики Incompas, член Палаты представителей Джей Обернолти (Jay Obernolte, республиканец от штата Калифорния) разъяснил дальнейший законодательный путь, просигнализировав о сильной двухпартийной поддержке адресного надзора, который балансирует инновации и общественную безопасность.
Для индустрии ИИ это знаменует решающий переход от неопределенности потенциальных мораториев на разработку к более предсказуемой модели управления, основанной на рисках. Формирующийся консенсус предполагает, что будущие правила будут адаптированы к конкретным вариантам использования — таким как здравоохранение или финансы — вместо применения общих ограничений на саму технологию.
Концепция общего «Моратория на ИИ» (AI Moratorium) попала в заголовки газет в 2025 году, когда положение о приостановке определенных разработок в области ИИ было включено в законопроект о согласовании бюджета. Однако Обернолти, председатель подкомитета Палаты представителей по науке, космосу и технологиям в области исследований и технологий, теперь охарактеризовал эти усилия скорее как стратегическую «поправку для привлечения внимания», а не как постоянную политическую цель.
«Мораторий никогда не планировался как долгосрочное решение», — сообщил Обернолти участникам саммита. Он пояснил, что это положение, которое было принято Палатой представителей до того, как его отклонил Сенат, было разработано для того, чтобы инициировать необходимый диалог о разделении полномочий между государственными и федеральными регуляторами. Шок от его принятия в Палате представителей послужил своей цели: он подчеркнул настоятельную необходимость сплоченной национальной стратегии для предотвращения раздробленности конфликтующих законов штатов.
Теперь, когда этот диалог созрел, законодатели отказываются от грубого инструмента моратория в пользу инструментов точного воздействия. Внимание сместилось на определение четких федеральных «полос», устанавливающих области, где необходимо федеральное верховенство для защиты межштатной торговли, оставляя при этом штатам возможность выступать в качестве «лабораторий демократии» в конкретных областях, таких как безопасность детей и государственные закупки.
Основой новой законодательной базы является признание того, что не весь ИИ несет в себе одинаковый профиль риска. Рассмотрение алгоритма рекомендаций в видеоигре с той же тщательностью, что и диагностического инструмента на базе ИИ в больнице, все чаще рассматривается как неэффективное и сдерживающее инновации решение.
Обернолти проиллюстрировал это различие на примере медицины. «FDA уже выдало тысячи разрешений на использование ИИ в медицинских устройствах», — отметил он. «Может существовать модель, которая неприемлемо рискованна в чем-то вроде кардиостимулятора, имплантируемого в чье-то тело, но совершенно безобидна в другом контексте развертывания».
В рамках предлагаемого отраслевого подхода отдельные федеральные агентства получат полномочия регулировать ИИ в своих собственных областях. Это позволяет осуществлять глубокий, контекстно-зависимый надзор:
Этот метод позволяет избежать ловушек «универсального» закона, который мог бы непреднамеренно парализовать приложения с низким уровнем риска, не обеспечив при этом должного контроля над системами с высокими ставками.
Центральной опорой предложения Обернолти является законодательная кодификация Центра стандартов и инноваций в области ИИ (CAISI). Ранее известный как Институт безопасности ИИ США (U.S. AI Safety Institute) при предыдущей администрации, этот орган был переименован и продолжил свою работу при президенте Трампе.
Обернолти видит CAISI не как прямого регулятора, а как центр технических ресурсов — «фабрику», которая производит измерительные инструменты и протоколы безопасности, необходимые другим ведомствам. Мандат CAISI будет включать:
Централизуя техническую экспертизу в CAISI и децентрализуя правоприменение в отраслевых агентствах, Конгресс стремится создать систему, которая была бы одновременно научно обоснованной и юридически гибкой.
Одной из самых насущных проблем для разработчиков ИИ стал рост «лоскутного одеяла» нормативных актов на уровне штатов. Без федерального стандарта компании потенциально сталкиваются с 50 различными режимами комплаенса. Новая структура призвана решить эту проблему посредством федерального верховенства (preemption) — позиции, поддержанной указом президента Трампа от декабря 2025 года.
Указ предписывает провести обзор законов штатов, чтобы выявить те, которые накладывают чрезмерное бремя на разработчиков ИИ. Однако в нем также предусмотрены конкретные исключения, где регулирование на уровне штатов приветствуется.
Предлагаемое разделение регуляторных полномочий
| Регуляторная область | Полномочия | Направление внимания |
|---|---|---|
| Межштатная торговля | Федеральные (приоритетные) | Базовая безопасность моделей ИИ, межштатный трафик данных, защита фундаментальных прав. |
| Безопасность детей | Региональные и местные | Защита несовершеннолетних в сети, образовательная среда. |
| Инфраструктура | Региональные и местные | Зонирование для дата-центров, энергопотребление, местная вычислительная инфраструктура. |
| Закупки | Региональные и местные | Правила, регулирующие закупку и использование инструментов ИИ государственными органами штатов. |
Проверка формата: В приведенной выше таблице используются одинарные вертикальные черты, строка-разделитель содержит не менее трех тире на столбец и не содержит недопустимых символов.
Несмотря на часто поляризованный политический климат в Вашингтоне, управление ИИ (AI governance) остается редкой областью межпартийного сотрудничества. Обернолти подчеркнул, что, хотя партии могут расходиться во мнениях по более широким вопросам, работа в комитетах по науке и технологиям идет «удивительно сплоченно».
Чтобы принять существенное законодательство, структуре потребуется 60 голосов в Сенате, что требует законопроекта, привлекательного как для республиканцев, так и для демократов. Отраслевой подход, по-видимому, является тем самым компромиссом. Он снимает опасения республиканцев по поводу чрезмерного регулирования, избегая создания центрального «царя ИИ» или жесткого режима лицензирования, и в то же время удовлетворяет приоритеты демократов в отношении стандартов безопасности и этики через наделенные полномочиями ведомства.
Для читателей Creati.ai и широкого сообщества ИИ этот законодательный поворот сигнализирует о взрослении рынка. Эра экзистенциальных дебатов о том, стоит ли ставить ИИ на паузу, заканчивается; начинается эра практического отраслевого комплаенса. Разработчики должны готовиться к регуляторной среде, которая спрашивает не о том, можно ли создавать ИИ, а о том, как он безопасно вписывается в конкретный сектор, которому он служит.