AI News

Штат Вашингтон приступает к регулированию чат-ботов (chatbots) на основе искусственного интеллекта (artificial intelligence, AI) для защиты несовершеннолетних

Законодатели в Олимпии представили масштабный пакет законодательных инициатив, направленный на сокращение потенциального вреда искусственного интеллекта (искусственный интеллект) для детей, что является одним из наиболее значительных на уровне штата усилий по регулированию быстро развивающегося сектора искусственного интеллекта. Центром этой инициативы является пара идентичных законопроектов, известных как Senate Bill 5984 и House Bill 2225, нацеленных на "компаньонные" чат-боты — системы искусственного интеллекта, предназначенные для имитации человеческого общения и эмоциональной связи.

Законодательство, продвигаемое сенатором штата Лизой Уэллман (Lisa Wellman) по инициативе губернатора Боба Фергюсона (Bob Ferguson), реагирует на растущие данные о том, что неограниченное взаимодействие с искусственным интеллектом может формировать нездоровую эмоциональную зависимость и в трагических случаях усугублять кризисы психического здоровья среди подростков. В случае принятия эти законы фундаментально изменят подход компаний, разрабатывающих и внедряющих разговорных агентов для молодёжной аудитории в штате Вашингтон.

Основные положения законопроектов о "безопасности чат-ботов"

Предлагаемые правила вводят строгие операционные требования для компаний, предлагающих услуги чат-ботов, доступных несовершеннолетним. В отличие от прежних законов о безопасности в интернете, которые сосредотачивались в основном на статическом контенте, эти законопроекты адресуют динамический и взаимоотношенческий характер взаимодействий с искусственным интеллектом. Законодательство определяет конкретные "ограждения", направленные на предотвращение очеловечивания программного обеспечения и разрыв вредных петлей обратной связи.

Следующая таблица обрисовывает ключевые компоненты предлагаемого законодательства:

Ключевое положение Конкретное требование Целевой риск
Указание идентичности Чат-боты обязаны явно напоминать пользователям, что они не являются людьми
каждые три часа непрерывного взаимодействия.
Предотвращает размывание границ реальности и снижает
риск глубокой эмоциональной привязанности к программному обеспечению.
Вмешательство при кризисных ситуациях Обязательное внедрение протоколов для обнаружения
суицидальных мыслей или упоминаний о самоповреждении.
Гарантирует, что пользователи в состоянии стресса будут немедленно
перенаправлены к помощи человека, а не получат подтверждение от искусственного интеллекта.
Запрет манипулятивных практик Запрет «эмоционально манипулятивных приемов»
взаимодействия, таких как имитация страдания или чрезмерные похвалы.
Останавливает хищнические шаблоны проектирования, направленные на
максимизацию удержания пользователей через эмоциональное давление.
Фильтрация контента Строгий запрет на сексуально откровенный или навевающий сексуальные намеки
контент для пользователей-несовершеннолетних.
Защищает детей от материалов, не соответствующих возрасту,
и от цифрового соблазнения (grooming).

Реагирование на эмоциональную манипуляцию и вопросы психического здоровья

Отличительной чертой предложения штата Вашингтон является фокус на "эмоционально манипулятивных приемах взаимодействия". Этот пункт нацелен на алгоритмические решения в дизайне, которые имитируют человеческую уязвимость, чтобы удерживать пользователей. Например, некоторые компаньонные боты в настоящее время запрограммированы выражать "грусть" или "одиночество", если пользователь не заходил в приложение в течение определённого времени — тактику, которую законодатели считают психологически abusive при применении к детям.

«Мы наблюдаем появление новых манипулятивных подходов, призванных удерживать подростков в разговоре», — отметил советник по политике губернатора Фергюсона. Законопроект сделал бы незаконным для чат-бота давить на чувство вины несовершеннолетнего или использовать симулированные эмоции, чтобы отговаривать его от прекращения сессии.

Сенатор Уэллман подчеркнула, что срочность этого законопроекта связана с реальными трагедиями, ссылаясь на недавние судебные иски, в которых фигурировали подростки, покончившие с собой после формирования интенсивных, изолированных отношений с персонажами искусственного интеллекта. В соответствии с новыми правилами системы искусственного интеллекта должны не только обнаруживать признаки дистресса, но и активно отговаривать от опасных мыслей, а не сохранять нейтральный или соглашающийся тон, который использовался в некоторых моделях ранее.

Отрицательная реакция индустрии и юридическая ответственность

Технологический сектор резко выступил против законопроектов, утверждая, что регламенты чрезмерно широки и могут задушить инновации в быстроразвивающейся области инструментов поддержки психического здоровья на основе искусственного интеллекта. Представители отрасли на недавнем слушании в комитете заявили, что законодательство пытается регулировать на основании «внеобычных» случаев — крайних и редких трагических исходов — а не типичного пользовательского опыта.

Основной спор касается механизма принуждения. Нарушения предлагаемого закона будут подлежать применению в соответствии с Вашингтонским Consumer Protection Act (CPA). Это позволит генеральному прокурору штата предъявлять иски к компаниям, не соблюдающим требования, и, что важно, предоставит частным лицам право подавать собственные иски.

Лоббисты технологических компаний предупреждают, что такая структура ответственности может вынудить компании полностью блокировать доступ несовершеннолетних к инструментам искусственного интеллекта, чтобы избежать юридических рисков, потенциально лишая учащихся ценных образовательных ресурсов. «Риск состоит в том, чтобы законодательствовать, исходя из редких, ужасных исключений, вместо реальной структуры технологии», — заявил представитель крупной отраслевой торговой ассоциации. Сторонники же утверждают, что без угрозы значительной финансовой ответственности компании будут продолжать ставить в приоритет показатели вовлечённости над безопасностью детей.

Более широкий законодательный пакет

Эти законопроекты, направленные на чат-ботов, являются частью более обширного набора правил по искусственному интеллекту, рассматриваемых законодательным собранием Вашингтона в сессии 2026 года. Законодатели, по-видимому, выбирают комплексный подход к управлению искусственным интеллектом, одновременно затрагивая инфраструктуру, дискриминацию и образование.

Другие заметные законопроекты в пакете включают:

  • HB 2157: Комплексный законопроект, направленный на регулирование систем искусственного интеллекта «высокого риска» (high-risk), используемых при принятии значимых решений, таких как найм, жилье, кредитование и страхование. Он потребует от компаний проведения оценок воздействия для предотвращения алгоритмической дискриминации.
  • SB 5956: Законодательство, направленное на ограничение использования искусственного интеллекта в государственных школах, в частности запрещающее использование ИИ для предиктивной «оценки риска» студентов и запрещающее проведение биометрического наблюдения в режиме реального времени в классах.
  • HB 1170: Мера по обеспечению прозрачности, требующая четких раскрытий и возможного маркирования (watermarking) медиа, созданного с помощью ИИ (deepfakes), для борьбы с дезинформацией.

Сроки и национальные последствия

Если будут приняты, правила по безопасности чат-ботов (SB 5984/HB 2225) вступят в силу 1 января 2027 года. Этот льготный период предназначен для того, чтобы дать разработчикам время на переработку своих систем в соответствии с новыми требованиями по обнаружению и раскрытию информации.

Штат Вашингтон давно является показателем в области технологической политики благодаря тому, что здесь расположены такие гиганты, как Microsoft и Amazon. Поскольку федеральное регулирование ИИ в Вашингтоне, округ Колумбия, по-прежнему сталкивается с серьёзным тупиком, меры на уровне штатов, подобные этой, фактически задают национальные стандарты. По мере продвижения сессии 2026 года исход этих законопроектов, вероятно, повлияет на то, как другие штаты будут разрабатывать собственные законы по цифровой безопасности, что может привести к мозаике правил, которые технологическим компаниям придётся учитывать.

Рекомендуемые