
К февралю 2026 года ландшафт регулирования искусственного интеллекта (Artificial Intelligence, AI) в Соединенных Штатах претерпевает кардинальные изменения. В то время как многие отраслевые наблюдатели ожидали появления всеобъемлющей федеральной базы в этом году, недавние сигналы от Федеральной торговой комиссии (Federal Trade Commission, FTC) указывают на значительную паузу в Вашингтоне, округ Колумбия. Однако природа не терпит пустоты, и законодательные собрания штатов оперативно принимают меры, чтобы заполнить этот пробел.
Для руководителей HR-подразделений и специалистов по управлению талантами центр внимания сместился из Капитолия на побережья. Гавайи и штат Вашингтон представили новые решительные законопроекты, направленные на использование ИИ при найме и принятии решений на рабочем месте. Эти предложения, в частности HB 2500 на Гавайях и HB 2157 в Вашингтоне, знаменуют собой переломный момент: мы переходим от теоретических дискуссий об «этичном ИИ» к конкретным юридическим обязательствам в отношении прозрачности, аудита предвзятости и подотчетности.
Гавайи часто ассоциируются с туризмом, но в 2026 году они позиционируют себя как пионера в области цифровых прав. Законодательное собрание штата внесло два важных законопроекта — HB 2500 и SB 2967, — которые накладывают строгие новые обязательства как на вендоров, создающих инструменты ИИ, так и на работодателей, которые их внедряют.
HB 2500 предлагает всеобъемлющую структуру для «алгоритмических систем принятия решений» (Algorithmic Decision Systems, ADS). Законопроект широко определяет ADS как любой инструмент на базе машин, который помогает или заменяет принятие решений человеком в важных вопросах, особо выделяя найм, продвижение по службе и дисциплинарные взыскания.
Согласно этому предложению, ответственность разделена, но четко разграничена. Разработчики инструментов ИИ должны будут раскрывать информацию о предполагаемом использовании и известных юридических рисках компаниям, покупающим их программное обеспечение. Для работодателей (определяемых как «внедренцы») планка установлена еще выше. Перед использованием ADS, которая существенно влияет на занятость, компании должны заранее уведомлять кандидатов и сотрудников. Кроме того, если решение принимается на основе выходных данных системы, работодатель должен предоставить раскрытие информации после использования, указав конкретные личные характеристики, на которые опиралась система — вплоть до 20 самых влиятельных факторов.
Дополнением к этому является SB 2967, представленный как законопроект о защите прав потребителей. Он классифицирует ИИ, связанный с занятостью, как «высокорискованный». Этот законопроект выходит за рамки простой прозрачности; он требует, чтобы внедренцы проводили ежегодные оценки воздействия (annual impact assessments) для проверки на предмет дискриминационного воздействия и предвзятости. Он также создает право на исправление данных и проверку человеком, фактически запрещая автоматизированные отказы по принципу «черного ящика» без возможности апелляции.
Тем временем на Тихоокеанском Северо-Западе штат Вашингтон продвигает собственную повестку регулирования с помощью законопроекта HB 2157. Известный как центр технологических инноваций, Вашингтон пытается сбалансировать рост отрасли с защитой гражданских прав.
HB 2157 в значительной степени ориентирован на предотвращение дискриминации ИИ (AI discrimination) в решениях с высокими ставками, включая найм и медицинское страхование. В отличие от законов, ориентированных в первую очередь на прозрачность и требующих простого заявления об отказе от ответственности, этот законопроект обязывает компании предпринимать активные шаги для защиты лиц от дискриминации, заложенной в алгоритмических моделях.
Законопроект распространяется на предприятия с годовым доходом более 100 000 долларов США — порог, который охватывает подавляющее большинство работодателей, использующих корпоративное HR-ПО. Он специально нацелен на «сдерживающий эффект» предвзятых алгоритмов, требуя, чтобы разработчики и внедренцы доказывали, что их инструменты не ставят в невыгодное положение защищенные классы. Этот законодательный шаг следует за работой Целевой группы по ИИ штата Вашингтон (Washington State AI Task Force), созданной ранее, которая выпускает рекомендации по «руководящим принципам ИИ на рабочем месте».
Подход Вашингтона особенно примечателен тем, что он сигнализирует о потенциальном столкновении с технологической индустрией. Бизнес-группы уже выразили обеспокоенность тем, что такая строгая ответственность за алгоритмические результаты может полностью отбить охоту использовать инструменты, повышающие эффективность. Однако авторы законопроекта утверждают, что в отсутствие федеральных руководящих принципов надзор со стороны штата необходим для защиты прав работников.
Срочность, наблюдаемая в законодательных собраниях штатов, резко контрастирует с текущими настроениями на федеральном уровне. В конце января 2026 года FTC дала понять, что у нее снизился интерес к новым правилам в области ИИ. Выступая на конференции Privacy State of the Union, директор Бюро по защите прав потребителей FTC Крис Муфарридж заявил, что в ближайших планах агентства по нормотворчеству «нет интереса ни к чему, что связано с ИИ».
Это согласуется с более широкой позицией текущей администрации на дерегулирование, которая делает упор на устранение барьеров для инноваций. FTC указала, что будет полагаться на «умеренное» применение существующих законов, а не на создание новых законодательных актов, специфичных для ИИ. Например, хотя агентство недавно урегулировало дело в отношении ИИ-помощников для написания текстов, оно фактически отложило более широкое нормотворчество, которое стандартизировало бы аудит ИИ на национальном уровне.
Для работодателей, работающих в нескольких штатах, это создает сложную среду комплаенса. Вместо единого федерального стандарта компаниям теперь приходится ориентироваться в «лоскутном одеяле» законов штатов: соблюдать строгие правила прозрачности на Гавайях, антидискриминационные мандаты в Вашингтоне и требования к аудиту предвзятости в Нью-Йорке, и все это при минимальном федеральном руководстве.
Чтобы помочь командам по управлению талантами и юридическим отделам HR ориентироваться в этих новых требованиях, в следующей таблице приведены основные компоненты новых законопроектов на Гавайях и в Вашингтоне.
| Характеристика | Гавайи (HB 2500 / SB 2967) | Вашингтон (HB 2157) |
|---|---|---|
| Основной фокус | Прозрачность и объяснение | Антидискриминация и защита |
| Триггер | Использование «алгоритмических систем принятия решений» | Использование в «решениях с высокими ставками» |
| Обязательства работодателя | Предварительное уведомление; раскрытие факторов после принятия решения | Защита от дискриминации; доказательство отсутствия предвзятости |
| Права кандидата | Право на исправление данных; проверка человеком | Защита от дискриминационного воздействия |
| Требования к аудиту | Ежегодные оценки воздействия (SB 2967) | Подразумевается в доказательстве отсутствия дискриминации |
| Порог | Широкое применение | Доход > 100 000 долларов в год |
Расхождение между амбициями штатов и федеральным бездействием ставит работодателей в затруднительное положение. Ожидание национального стандарта больше не является жизнеспособной стратегией. HR-департаменты должны проактивно адаптировать свои стратегии соблюдения трудового законодательства, чтобы соответствовать самым строгим требованиям штатов, независимо от того, где находится их штаб-квартира.
1. Проведите аудит вашего инвентаря ИИ
Многие организации страдают от «теневого ИИ» (shadow AI), когда отдельные менеджеры по найму используют несанкционированные инструменты для скрининга или проведения интервью. Руководство HR должно провести полную инвентаризацию всех алгоритмических инструментов, используемых в жизненном цикле найма, чтобы определить, какие из них попадают под определения принятия «высокорискованных» или «важных» решений.
2. Требуйте прозрачности от вендоров
Бремя доказывания смещается на работодателей («внедренцев»), но технические данные находятся у вендоров. Контракты должны быть обновлены, чтобы требовать от вендоров предоставления конкретной информации, предписанной такими законами, как HB 2500 на Гавайях. Если вендор не может объяснить «топ-20 влиятельных факторов» своей модели, ее использование в определенных юрисдикциях может фактически стать незаконным.
3. Подготовьтесь к требованиям «человек в цикле»
И Гавайи, и Вашингтон подчеркивают необходимость человеческого контроля. Дни полностью автоматизированных писем с отказом сочтены. Работодателям следует наладить рабочие процессы, в которых ИИ служит поддержкой принятия решений, а не окончательным лицом, принимающим решения, и обеспечить наличие человека-рецензента для обработки апелляций или исправлений.
2026 год будет определяться этим перетягиванием каната между защитой на уровне штатов и федеральным дерегулированием. Пока FTC берет паузу, такие штаты, как Гавайи и Вашингтон, следят за тем, чтобы ИИ на рабочем месте не функционировал в серой юридической зоне. Для дальновидных компаний это возможность укрепить доверие. Добровольно принимая высокие стандарты прозрачности и справедливости, организации могут обезопасить свои методы найма в будущем от неизбежной волны регулирования, которая только начинает разбиваться о берег.