
Пересечение искусственного интеллекта (Artificial Intelligence) и федерального управления достигло поворотного момента: администрация Трампа объявила о планах использовать Google Gemini для подготовки федеральных нормативных актов. В шаге, который официальные лица назвали «революцией» в процессе разработки правил, U.S. Department of Transportation (DOT) позиционирует себя авангардом этой автоматизированной трансформации, стремясь радикально сократить время, необходимое для создания сложных нормативных рамок.
Эта инициатива, представляющая собой значительный отход от традиционных бюрократических процедур, направлена на использование генеративных возможностей крупномасштабных языковых моделей (Generative AI) и крупномасштабных языковых моделей (Large Language Models, LLMs) для создания проектов нормативных актов за долю обычного времени. Сторонники утверждают, что это устранит узкие места и модернизирует эффективность работы правительства, однако стратегия вызвала шквал дебатов по поводу безопасности, точности и правовой целостности делегирования ответственных задач управления алгоритмам.
В основе этой инициативы лежит фундаментальный сдвиг в философии качества нормативных актов. Gregory Zerzan, генеральный советник DOT, по сообщениям, продвигал доктрину, отдающую приоритет скорости и объёму над педантичным совершенством. Во время внутренних совещаний Zerzan подчеркнул, что агентству не нужен «идеальный регламент» или даже «очень хороший регламент», а скорее такой, который «достаточно хорош».
Этот подход согласуется с более широкой стратегией «залить зону» новыми правилами, используя ИИ для обхода человеческого «узкого места», которое обычно замедляет процесс подготовки. В рамках этой новой парадигмы DOT стремится сократить срок от концепции до полного проекта, готового к рассмотрению Office of Information and Regulatory Affairs (OIRA), до всего 30 дней — процесса, который традиционно занимает месяцы или годы.
Опора на Google Gemini является ключевым элементом этого ускорения. Официальные лица утверждают, что модель ИИ может сгенерировать проект правила примерно за 20 минут — достижение, которое коренным образом изменит темпы федеральной выработки норм. Однако акцент на скорости вызывает критические вопросы о глубине правового анализа и технической экспертизы, применяемых к правилам, определяющим важнейшие стандарты безопасности в авиации, трубопроводах и железнодорожном транспорте.
Техническая реализация этого плана предполагает использование версии Google Gemini для составления основной части нормативных текстов. Во время демонстрации в декабре 2025 года демонстратор — присутствовавшими опознанный, вероятно, как Acting Chief AI Officer Brian Brotsos — продемонстрировал способность модели генерировать «Notice of Proposed Rulemaking», основываясь исключительно на ключевых словах темы.
Демонстрация подчеркнула как потенциал, так и подводные камни современной генеративной ИИ (Generative AI):
Предложение предполагает будущее, в котором человеческие регуляторы переходят от роли авторов к аудиторам, контролируя «AI-to-AI interactions», а не участвуя в глубокой содержательной разработке. Эта модель исходит из предположения, что выигрыш в эффективности перевешивает риски, связанные с «галлюцинациями» (hallucinations) ИИ — уверенными, но фактически неверными результатами, типичными для генеративных моделей.
Быстрая интеграция ИИ в процессы разработки правил, критически важных для безопасности, вызвала резкую критику со стороны внутренних сотрудников и внешних экспертов. Главная обеспокоенность — надёжность LLM при интерпретации сложных статутных требований и прецедентного права без человеческого уровня рассуждений.
Mike Horton, бывший исполняющий обязанности Chief AI Officer в DOT, дал жёсткую критику, сравнив инициативу с «поручением старшекласснику» составлять федеральные нормативные акты. Его предупреждение подчёркивает потенциальные последствия ошибок в секторах, где правила прямо влияют на безопасность людей. «Идти быстро и ломать вещи означает, что люди пострадают», — заявил Horton, ссылаясь на манту Силиконовой долины, которую, похоже, перенимает DOT.
Текущие сотрудники также выразили тревогу, отмечая, что роль «человека в цикле», описанная руководством, может быть недостаточной для обнаружения тонких, но юридически значимых ошибок, создаваемых ИИ. Побоюются, что огромный объём текста, сгенерированного ИИ, может перегрузить рецензентов и привести к процедуре формального одобрения без должной проверки, что создаст уязвимости в федеральной нормативной системе.
Разногласия во взглядах между технологическими сторонниками администрации и защитниками безопасности глубоки. Ниже приведена таблица, отражающая конфликтующие ключевые аргументы, формирующие этот сдвиг в политике.
| Perspective | Key Arguments | Primary focus | Representative Stance |
|---|---|---|---|
| Proponents | AI eliminates bureaucratic bottlenecks; "Good enough" drafts are sufficient for initial stages; Humans slow down the process. | Speed, Volume, Efficiency | Gregory Zerzan: "We want good enough... We're flooding the zone." |
| Skeptics | LLMs lack legal reasoning and accountability; Hallucinations pose safety risks; Complex regulations require deep expertise. | Safety, Accuracy, Legality | Mike Horton: "Having a high school intern... doing your rulemaking." |
| Legal Experts | High-volume generation does not equal high-quality decision-making; Risk of violating administrative law standards. | Administrative Integrity | Bridget Dooling: "Words don't add up to a high-quality government decision." |
Инициатива DOT не является изолированным экспериментом, а частью более широкого стремления администрации Трампа интегрировать искусственный интеллект во федеральный аппарат. После серии исполнительных указов в поддержку развития ИИ администрация ясно дала понять намерение использовать технологию для дерегулирования и перестройки государственных операций.
Это согласуется с предложениями внешних консультативных органов, таких как Department of Government Efficiency (DOGE), связанный с Elon Musk, который призывал к использованию автоматизированных инструментов для резкого сокращения федерального регуляторного кода. Риторика «point of the spear», используемая должностными лицами DOT, предполагает, что Департамент транспорта служит пилотной программой для повсеместного принятия инструментов ИИ для составления документов.
Развёртывание Google Gemini в DOT представляет собой рискованную проверку полезности генеративного ИИ (Generative AI) в публичной администрации. Хотя обещание ускорить медленный процесс разработки правил не вызывает сомнений, стратегия испытывает пределы текущей надёжности ИИ. По мере того как агентство продвигается вперёд с «залитием зоны», напряжение между требованием скорости и императивом безопасности, вероятно, определит следующую эру федерального регулирования. Для индустрии ИИ это служит критической точкой наблюдения: покажет ли универсальная LLM способность по-настоящему овладеть нюансами федерального права, или же «галлюцинации» машины приведут к реальным последствиям.