
워싱턴 D.C. – 미국 기술 정책의 중대한 변화 속에서, 의회 지도자들은 인공지능(Artificial Intelligence, AI) 개발의 광범위한 중단에서 벗어나 세분화된 부문별 규제 프레임워크를 선호하고 있습니다. 이번 주 Incompas 정책 서밋(Incompas Policy Summit)에서 Jay Obernolte 하원의원(공화당-캘리포니아)은 혁신과 공공 안전의 균형을 맞추는 표적화된 감독에 대한 강력한 초당적 지지를 시사하며 향후 입법 방향을 명확히 했습니다.
AI 산업에 있어 이는 잠재적 개발 모라토리엄(Moratorium)의 불확실성에서 보다 예측 가능한 위험 기반 거버넌스 모델로의 결정적인 전환을 의미합니다. 새롭게 형성된 공감대에 따르면, 향후 규제는 기술 자체에 포괄적인 제한을 적용하기보다는 의료나 금융과 같은 특정 사용 사례에 맞게 조정될 것입니다.
"AI 모라토리엄"이라는 개념은 2025년 특정 AI 개발을 일시 중단하는 조항이 예산 조정 법안에 첨부되면서 헤드라인을 장식했습니다. 그러나 하원 과학우주기술위원회 산하 연구 및 기술 소위원회 위원장인 Obernolte 의원은 이제 해당 노력을 영구적인 정책 목표가 아닌 전략적인 "메시지 수정안(messaging amendment)"으로 규정했습니다.
"모라토리엄은 결코 장기적인 해결책이 아니었습니다"라고 Obernolte 의원은 서밋 참석자들에게 말했습니다. 그는 하원을 통과한 후 상원에서 삭제된 이 조항이 주 정부와 연방 규제 기관 간의 권한 분립에 대한 필요한 논의를 강제하기 위해 고안되었다고 설명했습니다. 하원 통과의 충격은 그 목적을 달성했습니다. 즉, 상충하는 주 법률의 분열된 지형을 방지하기 위한 응집력 있는 국가 전략의 시급성을 강조했습니다.
이제 그 논의가 성숙해짐에 따라, 입법자들은 모라토리엄이라는 투박한 도구를 버리고 정밀한 도구를 선택하고 있습니다. 초점은 주 정부가 아동 안전 및 정부 조달과 같은 특정 분야에서 "민주주의의 실험실(Laboratories of democracy)" 역할을 할 여지를 남겨두는 동시에, 주간 상거래를 보호하기 위해 연방 우선권(Federal preemption)이 필요한 명확한 연방 "차선(lanes)"을 정의하는 쪽으로 옮겨갔습니다.
새로운 입법 프레임워크의 핵심은 모든 AI가 동일한 위험 프로필을 갖는 것은 아니라는 인식입니다. 비디오 게임의 추천 알고리즘을 병원의 AI 기반 진단 도구와 동일한 정밀 조사로 다루는 것은 점차 비효율적이며 혁신을 저해하는 것으로 간주되고 있습니다.
Obernolte 의원은 의료 비유를 들어 이러한 차이를 설명했습니다. "FDA는 이미 AI 및 의료 기기 사용에 대해 수천 건의 허가를 내주었습니다"라고 그는 언급했습니다. "누군가의 몸에 이식될 심박 조율기와 같은 것에서는 용납할 수 없을 정도로 위험한 모델이, 다른 배포 맥락에서는 완전히 무해할 수 있습니다."
제안된 부문별 접근 방식(sector-specific approach)에 따라, 개별 연방 기관은 해당 도메인 내에서 AI를 규제할 권한을 부여받게 됩니다. 이를 통해 상황에 적합한 심층적인 감독이 가능해집니다:
이 방법은 고위험 시스템을 적절하게 감시하지 못하면서 저위험 애플리케이션을 본의 아니게 무력화할 수 있는 "일률적인(one-size-fits-all)" 법의 함정을 피합니다.
Obernolte 의원 제안의 중심축은 **AI 표준 및 혁신 센터(Center for AI Standards and Innovation, CAISI)**의 법적 성문화입니다. 이전 행정부에서 미국 AI 안전 연구소(U.S. AI Safety Institute)로 알려졌던 이 기구는 트럼프 대통령 하에서 명칭이 변경되어 유지되고 있습니다.
Obernolte 의원은 CAISI를 직접적인 규제 기관이 아니라, 다른 기관에 필요한 측정 기준과 안전 프로토콜을 생산하는 기술 리소스 허브, 즉 "공장"으로 구상하고 있습니다. CAISI의 임무는 다음과 같습니다:
CAISI 내에 기술적 전문 지식을 집중시키는 동시에 부문별 기관으로 집행을 분산시킴으로써, 의회는 과학적으로 엄격하면서도 법적으로 유연한 시스템을 구축하는 것을 목표로 합니다.
AI 개발자들에게 가장 시급한 우려 중 하나는 주 단위 규제의 "파편화(patchwork)"가 증가하고 있다는 점입니다. 연방 표준이 없으면 기업들은 잠재적으로 50가지의 서로 다른 준수 체계에 직면하게 됩니다. 새로운 프레임워크는 2025년 12월 트럼프 대통령의 행정 명령에 의해 지지된 입장인 연방 우선권을 통해 이를 해결하는 것을 목표로 합니다.
행정 명령은 AI 개발자에게 부당한 부담을 주는 주 법률을 식별하기 위한 검토를 지시했습니다. 그러나 주 정부의 규제가 권장되는 구체적인 예외 사항도 마련했습니다.
규제 권한 제안 분담안
| 규제 영역 | 권한 | 중점 분야 |
|---|---|---|
| 주간 상거래 (Interstate Commerce) | 연방 (우선권) | 핵심 AI 모델 안전, 주간 데이터 트래픽, 기본권 보호. |
| 아동 안전 (Child Safety) | 주 및 지방 | 온라인 미성년자 보호, 교육 환경. |
| 인프라 (Infrastructure) | 주 및 지방 | 데이터 센터 용도 지역 설정, 에너지 사용, 지역 컴퓨팅 인프라. |
| 조달 (Procurement) | 주 및 지방 | 주 정부 기관의 AI 도구 구매 및 사용 관리 규칙. |
형식 확인: 위 표는 단일 수직 바를 사용하고, 열당 최소 3개의 대시가 포함된 구분선을 포함하며, 유효하지 않은 문자를 포함하지 않습니다.
워싱턴의 종종 양극화된 정치적 기후에도 불구하고, AI 거버넌스(AI governance)는 드문 초당적 협력 분야로 남아 있습니다. Obernolte 의원은 양당이 더 광범위한 이슈에서는 의견이 다를 수 있지만, 과학 기술 위원회 내에서의 작업은 "놀라울 정도로 초당적"이라고 강조했습니다.
실질적인 입법을 통과시키기 위해서는 상원에서 60표가 필요하며, 이는 공화당과 민주당 모두에게 어필할 수 있는 법안을 필요로 합니다. 부문별 접근 방식은 바로 그 절충안인 것으로 보입니다. 이는 중앙화된 "AI 차르(AI Czar)"나 고압적인 면허 체계를 피함으로써 과도한 규제에 대한 공화당의 우려를 해결하는 동시에, 권한을 부여받은 기관을 통해 안전 및 윤리 표준에 관한 민주당의 우선순위를 충족합니다.
Creati.ai 독자들과 광범위한 AI 커뮤니티에 있어, 이러한 입법적 선회는 시장의 성숙을 의미합니다. AI 중단 여부에 대한 실존적 논쟁의 시대는 끝나가고 있으며, 실질적이고 산업별 준수의 시대가 시작되고 있습니다. 개발자들은 AI를 구축할 수 있는지 여부가 아니라, 서비스하는 특정 부문에 AI가 어떻게 안전하게 부합하는지를 묻는 규제 환경에 대비해야 합니다.