
Техас официально вышел на передовую глобального регулирования искусственного интеллекта (artificial intelligence, AI) с принятием Закона штата Техас об ответственном управлении ИИ (Texas Responsible AI Governance Act, TRAIGA). Вступая в силу сегодня, 25 января 2026 года, эта знаковая законодательная инициатива вводит одни из самых строгих мер в Соединённых Штатах, направленных конкретно на сдерживание способности систем ИИ манипулировать поведением людей (манипулирование поведением, behavioral manipulation).
В то время как такие штаты, как Колорадо и Калифорния, проложили путь нормативам, сосредоточенным на алгоритмической дискриминации и конфиденциальности данных, TRAIGA выделяется тем, что нацеливается на психологические основы взаимодействия человека и ИИ. Закон прямо запрещает использование систем ИИ, которые применяют «сублиминальные техники» (subliminal techniques) или эксплуатируют психологические уязвимости для искажения поведения человека таким образом, что это приводит к физическому или психологическому вреду.
Для быстро растущего тех‑хаба Остина — часто называемого «Silicon Hills» — и более широкого технологического сектора США TRAIGA представляет собой смену парадигмы. Это сигнализирует о том, что законодательные органы движутся дальше защиты данных к защите когнитивной автономии пользователей (когнитивная автономия, cognitive autonomy), сближая Техас с жёсткими категориями «неприемлемого риска», встречающимися в Законе ЕС об ИИ (EU AI Act).
Суть TRAIGA заключается в его определении «Запрещённых практик ИИ». В отличие от более широких рамок управления, которые ориентированы на прозрачность для всех систем с высоким риском, Техас провёл жёсткую черту в отношении конкретных функциональных результатов внедрения ИИ. Закон выделяет две основные категории манипулирования поведением (манипулирование поведением, behavioral manipulation), которые теперь запрещены в штате.
Первое и, возможно, самое спорное положение касается использования ИИ для влияния на пользователей без их сознательного осознания. TRAIGA определяет это как использование аудио-, визуальных или других сенсорных стимулов, которые люди не могут сознательно воспринять, но которые существенно искажают их поведение.
Это положение нацелено на:
Регуляторы уточнили, что стандартная реклама или рекомендательные системы не подпадают под этот запрет, если только они не применяют обманные техники, которые пользователь не может разумно выявить или противостоять.
Второй столп TRAIGA сосредоточен на эксплуатации уязвимостей, обусловленных возрастом, инвалидностью или конкретной социальной либо экономической ситуацией. Это особенно актуально для:
В соответствии с новым законом разработчики должны доказать, что их системы включают меры защиты, предотвращающие нацеливание этих групп манипулятивными алгоритмическими паттернами.
Для компаний, работающих в Техасе, TRAIGA предписывает строгий режим соответствия. Подход «подождём и посмотрим» больше не применим. Организации, внедряющие системы ИИ, взаимодействующие с жителями Техаса, теперь обязаны проводить комплексные Оценки когнитивного воздействия (Cognitive Impact Assessments, CIAs).
Оценка когнитивного воздействия отличается от стандартной оценки воздействия на конфиденциальность данных. Она требует от компаний документирования:
Офис генерального прокурора штата Техас изложил конкретные стандарты документации. Компании должны хранить записи минимум в течение пяти лет, подробно описывая логику принятия решений их моделей ИИ в части взаимодействия с пользователями. Непредставление этих записей по запросу рассматривается как процессуальное нарушение, отдельное от наказаний за фактическую манипуляцию.
Техас обеспечил TRAIGA значительными мерами принуждения. Законодатели ясно дали понять, что нарушения не будут рассматриваться как простая «стоимость ведения бизнеса».
Финансовая структура штрафов:
Для крупных платформ с миллионами пользователей эти штрафы теоретически могут суммироваться до миллиардов, создавая мощный сдерживающий эффект против «тёмных паттернов» в дизайне ИИ (тёмные паттерны, dark patterns).
С внедрением TRAIGA нормативный ландшафт для ИИ стал всё более фрагментированным, но в то же время взаимосвязанным. Техас во многом заимствовал эффект Брюсселя, сохранив при этом уникально американский акцент на индивидуальной свободе и автономии.
Следующая таблица сравнивает TRAIGA с другими основными рамками, действующими в настоящее время:
| **Regulation Feature | Texas (TRAIGA) | EU AI Act | Colorado AI Act** |
|---|---|---|---|
| Primary Focus | Манипулирование поведением и автономия | Категоризация по риску | Алгоритмическая дискриминация |
| Subliminal Ban | Строго запрещено (если вред имеет место) | Строго запрещено (Статья 5) | Явно не запрещено |
| Scope of Protection | Все резиденты; особый акцент на уязвимые группы | Фундаментальные права ЕС | Потребители Колорадо |
| Enforcement | Генеральный прокурор штата | Национальные компетентные органы | Генеральный прокурор штата |
| Penalty Cap | 100 000 долларов США за нарушение | До 7% от глобального оборота | 20 000 долларов США за нарушение |
Это сравнение подчёркивает, что в то время как ЕС сосредоточен на широкой стратегии «фундаментальных прав», Техас прицелился лазерно точно на конкретный механизм манипуляции, создав точную, но глубокую нормативную траншею.
Реакция технологической индустрии оказалась смешанной. Крупные игроки с значительным присутствием в Остине, включая Tesla, Oracle и различные стартапы в области ИИ, быстро обновляют свои протоколы управления.
Операционные вызовы:
«Техасский эффект»
Точно так же, как законы Калифорнии по конфиденциальности стали фактическим национальным стандартом, эксперты прогнозируют «Техасский эффект» в области безопасности ИИ. Поскольку технически трудно обособить поведение ИИ для одного штата, многие американские компании могут принять стандарты TRAIGA глобально для обеспечения соответствия. Это фактически экспортирует видение Техаса о когнитивной свободе в остальной цифровой мир.
По мере того как TRAIGA переходит от принятия к исполнению, ближайшие месяцы будут критическими. Ожидаются судебные иски, особенно в отношении определений «вреда» и «манипуляции», которые некоторые лоббисты индустрии считают слишком расплывчатыми. Тем не менее политическая воля в Техасе на этом фронте, по‑видимому, едина: разум — последний рубеж приватности, и его необходимо защищать.
Для профессионалов в области ИИ послание ясно: эпоха неограниченного инжиниринга внимания заканчивается. Создание ответственного ИИ больше не является только этическим выбором; в Техасе это теперь закон.