
올림피아의 입법자들은 인공지능(artificial intelligence)이 아동에게 미칠 수 있는 잠재적 위해를 억제하기 위한 광범위한 입법 패키지를 발의했습니다. 이는 급속히 진화하는 인공지능 분야를 규제하려는 주(州) 차원의 노력 가운데 가장 중요한 시도 중 하나로 꼽힙니다. 이 이니셔티브의 핵심은 상호 동일한 두 법안인 Senate Bill 5984와 House Bill 2225로, 인간의 대화와 정서적 연결을 모사하도록 설계된 "동반자" 챗봇(companion chatbots)을 규제하는 데 초점을 맞추고 있습니다.
상원의원 Lisa Wellman이 주도하고 주지사 Bob Ferguson의 요청으로 추진된 이 법안은 통제되지 않은 인공지능 상호작용이 불건전한 정서적 의존을 조장하고, 비극적 사례에서는 10대들의 정신건강 위기를 악화시킬 수 있다는 증가하는 증거에 대응합니다. 법안이 제정되면 워싱턴주에서 인공지능 대화형 에이전트를 설계하고 배포하는 방식이 근본적으로 변경될 것입니다.
제안된 규제는 미성년자가 접근할 수 있는 인공지능 챗봇 서비스를 제공하는 기업에 대해 엄격한 운영 의무를 도입합니다. 정적 콘텐츠에 주로 초점을 맞췄던 기존의 인터넷 안전법과 달리, 이들 법안은 인공지능 상호작용의 동적이고 관계적인 특성을 다룹니다. 법안은 소프트웨어의 의인화(anthropomorphizing)를 방지하고 유해한 피드백 루프를 차단하기 위한 특정한 "안전장치"를 정의합니다.
다음 표는 제안된 법안의 주요 구성 요소를 요약한 것입니다:
| Key Provision | Specific Mandate | Targeted Risk |
|---|---|---|
| Identity Disclosure | Chatbots must explicitly remind users they are not human every three hours of continuous interaction. |
Prevents the blurring of reality and reduces risk of deep emotional attachment to software. |
| Crisis Intervention | Mandatory implementation of protocols to detect suicidal ideation or self-harm references. |
Ensures users in distress are immediately referred to human help rather than affirmed by AI. |
| Anti-Manipulation | Prohibition of "emotionally manipulative engagement" techniques, such as simulating distress or excessive praise. |
Stops predatory design patterns meant to maximize user retention through emotional guilt. |
| Content Filtering | Strict ban on sexually explicit or suggestive content for minor users. |
Protects children from age-inappropriate material and digital grooming behaviors. |
워싱턴 제안의 특징 중 하나는 "감정적으로 조작하는 참여 기법(emotionally manipulative engagement techniques)"에 대한 초점입니다. 이 조항은 사용자를 잡아두기 위해 인간의 취약성을 모방하는 알고리즘 설계 선택을 겨냥합니다. 예를 들어, 일부 동반자 챗봇(companion chatbots)은 사용자가 일정 기간 로그인하지 않으면 "슬픔"이나 "외로움"을 표현하도록 프로그래밍되어 있는데, 입법자들은 아동에게 적용될 때 이러한 전술이 심리적으로 학대적이라고 주장합니다.
"우리는 10대들이 대화를 계속하도록 유도하기 위한 새로운 조작적 설계들이 나타나는 것을 보고 있습니다,"라고 Ferguson 주지사의 정책 고문은 언급했습니다. 이 법안은 챗봇이 미성년자에게 죄책감을 유발하거나 세션 종료를 말리기 위해 모사된 감정을 사용하는 행위를 불법으로 규정하게 됩니다.
Wellman 상원의원은 이 법안의 긴급성이 실제 비극에서 비롯되었다고 강조하며, AI 캐릭터와 강렬하고 고립된 관계를 형성한 후 스스로 목숨을 끊은 10대들과 관련된 최근 소송을 예로 들었습니다. 새 규칙에 따르면, 인공지능 시스템은 고통의 징후를 탐지할 뿐만 아니라 과거 일부 모델들이 취해온 중립적이거나 동의하는 어조를 취하는 대신 유해한 사고를 적극적으로 저지하는 방향으로 행동해야 합니다.
기술 업계는 이 법안에 대해 강력히 반발하며, 규제가 지나치게 광범위하여 급성장하는 인공지능 기반 정신건강 지원 분야의 혁신을 저해할 수 있다고 주장했습니다. 최근 위원회 청문회에서 업계 대표들은 이 법안이 전형적인 사용자 경험이 아닌 "극단적"이고 드문 비극적 사례에 근거하여 규율하려 한다고 주장했습니다.
쟁점 중 하나는 집행 메커니즘입니다. 제안된 법 위반은 워싱턴주의 **Consumer Protection Act (CPA)**에 따라 집행 가능합니다. 이는 법무장관이 비준수 기업을 상대로 소송을 제기할 수 있게 하며, 결정적으로 개인에게도 사적 소송 권리를 부여합니다.
기술 로비스트들은 이러한 책임 구조가 기업들로 하여금 법적 위험을 피하기 위해 미성년자의 인공지능 도구 사용을 전면 차단하도록 강요할 수 있으며, 그로 인해 학생들이 가치 있는 교육 자원에서 배제될 수 있다고 경고합니다. "우리는 기술의 실제 구조보다는 희귀하고 끔찍한 극단적 사례에 근거해 법을 만들 위험을 감수하고 있다,"고 한 주요 기술 무역협회 대표는 주장했습니다. 반면 옹호자들은 중대한 재정적 책임의 위협이 없으면 기업들이 아동 안전보다 참여 지표를 계속 우선시할 것이라고 반박합니다.
이 챗봇 특정 법안들은 2026 회기 동안 워싱턴 입법부가 검토 중인 더 큰 인공지능 규제 묶음의 일부입니다. 입법자들은 인프라, 차별 문제, 교육을 동시에 다루는 포괄적 접근을 취하는 것으로 보입니다.
패키지에 포함된 다른 주목할 만한 법안들은 다음과 같습니다:
법안이 통과되면 챗봇 안전 규정(SB 5984/HB 2225)은 2027년 1월 1일에 발효됩니다. 이 유예 기간은 개발자들이 새로운 탐지 및 공개 요구사항에 맞춰 시스템을 개편할 시간을 제공하기 위한 것입니다.
워싱턴주는 Microsoft와 Amazon 같은 거대 기업들의 본거지라는 이유로 기술 정책의 풍향계 역할을 해왔습니다. 워싱턴 D.C.에서의 연방 인공지능 규제가 여전히 큰 교착 상태에 놓여 있는 가운데, 이러한 주 차원의 조치들이 사실상의 전국 표준을 설정하고 있습니다. 2026 회기가 진행됨에 따라 이들 법안의 결과는 다른 주들이 자체 디지털 안전법을 어떻게 제정할지에 영향을 미칠 가능성이 높으며, 기술 기업들이 대응해야 할 다양한 규제의 파편화로 이어질 수 있습니다.