
EU 집행위원회(European Commission)가 EU AI 법(EU AI Act)에 따른 고위험 AI 시스템(high-risk AI systems)에 대한 핵심 가이드라인의 2026년 2월 2일 발표 마감 기한을 지키지 못했습니다. 고위험 분류 기준과 준수 사항을 정의하는 제6조(Article 6) 가이드라인에 대한 이러한 지연은 8월 시행 마감 기한이 다가옴에 따라 기업과 개발자들 사이의 우려를 심화시키고 있습니다. Creati.ai는 우리 커뮤니티가 변화하는 규제 환경에 잘 적응할 수 있도록 이러한 규제 변화를 면밀히 모니터링하고 있습니다.
지연된 가이드라인은 AI 법 구현 프레임워크의 초석입니다. 이는 AI 애플리케이션이 엄격한 문서화, 투명성 및 사후 시장 모니터링 의무를 발생시키는 "고위험"으로 분류되는지 여부를 결정하는 방법에 대한 법적 확신을 제공하기 위해 마련되었습니다.
보고에 따르면, 집행위원회는 현재 수개월간의 피드백을 가이드라인에 통합하고 있습니다. 당초 2월 2일 마감 기한까지 최종 초안이 나올 것으로 예상되었으나, 관계자들은 이제 이달 말까지 추가 피드백을 위해 텍스트가 공개될 수 있으며, 최종 채택은 3월이나 4월로 밀려날 수 있다고 시사하고 있습니다.
EU 집행위원회의 통신 네트워크, 콘텐츠 및 기술 부총국장인 레나테 니콜라이(Renate Nikolay)는 최근 유럽 의회 청문회에서 준비 상태의 격차를 인정했습니다. 그녀는 표준이 아직 준비되지 않았으며, 업계와 혁신가들에게 필요한 법적 확신을 보장하기 위해 더 많은 시간이 필요하다고 밝혔습니다.
준비 부족에 대응하여 집행위원회는 "디지털 옴니버스(Digital Omnibus)" 패키지를 검토 중인 것으로 알려졌습니다. 이 제안은 고위험 AI 사용에 대한 정의를 단순화하고, 고위험 규칙의 효력 발생 시점을 최대 16개월까지 늦추는 것을 목표로 합니다.
이러한 잠재적 선회는 원래의 타임라인을 엄격히 준수하겠다고 약속했던 집행위원회의 이전 입장과는 상당한 차이가 있습니다. 지연의 원인 중 일부는 표준화 기구, 특히 유럽 전기 기술 표준화 위원회와 유럽 표준화 위원회가 기술 표준 개발을 위한 2025년 가을 마감 기한을 맞추지 못한 데 있습니다. 이들 기구는 이제 2026년 말 완성을 목표로 하고 있습니다.
AI 제공업체와 기업들에게 이러한 규제 불확실성 상태는 상당한 운영상의 과제를 안겨줍니다. 기업들은 현재 2026년 8월 시행일이 유지될지, 아니면 옴니버스 제안에 의해 대체될지 이해하기 위해 분주하게 움직이고 있습니다.
AI 법 협상가인 라우라 카롤리(Laura Caroli)는 이러한 불확실성이 법 자체에 대한 신뢰를 훼손한다고 경고했습니다. 제6조에 대한 명확성 부족은 조직이 준수(compliance) 전략을 확정하는 것을 어렵게 만들며, 특히 제한적 위험과 고위험의 경계에 있는 시스템의 경우 더욱 그러합니다. 체임버 오브 프로그레스(Chamber of Progress)를 포함한 업계 이해관계자들은 정책 입안자들이 스스로에게 부여하고 있는 것과 동일한 "숨 고를 틈"을 기업들에게도 주어야 한다고 주장해 왔습니다.
다음 표는 최근 전개 상황을 바탕으로 변화하는 EU AI 법(EU AI Act) 이정표를 요약한 것입니다.
| 마일스톤 | 원래 일정 | 현재 상태 / 제안 |
|---|---|---|
| 제6조 가이드라인 발표 | 2026년 2월 2일 | 지연됨; 2026년 3월/4월 예상 |
| 고위험 규칙 시행 | 2026년 8월 | 디지털 옴니버스를 통해 최대 16개월 지연 가능성 |
| 기술 표준 가용성 | 2025년 가을 | 미준수; 수정된 목표는 2026년 말 |
| 준수 확신 | 가이드라인 즉시 적용 | 유동적; 옴니버스 승인 여부에 달려 있음 |
이 상황은 빠르게 진화하는 기술을 규제하는 것의 복잡성을 부각시킵니다. 지연이 8월 마감 기한을 맞추기 위해 고군분투하는 기업들에게 잠재적인 유예를 제공할 수 있지만, "디지털 옴니버스" 패키지에 대한 모호함은 새로운 위험을 초래합니다. 옴니버스 제안이 통과되지 못하거나 상당한 변경을 겪을 경우, 조직은 필요한 가이드라인이나 표준 없이 원래의 8월 마감 기한에 직면할 수 있습니다.
AI 개발자와 배포자에게 있어 신중한 행동 방침은 지연된 타임라인에 적응할 수 있는 유연성을 유지하면서 규칙에 대한 가장 엄격한 해석에 대비하는 것입니다. 특정 시행일과 상관없이 요구될 가능성이 높은 강력한 내부 거버넌스 및 문서화 관행에 집중할 것을 권장합니다.
고위험 시스템의 분류는 단순한 법적 기술 사항이 아닙니다. 이는 EU 내 AI 제품의 시장 접근성을 결정합니다. 누락된 가이드라인은 **제6조(Article 6)**의 세부 사항, 특히 건강, 안전 또는 기본권에 심각한 위해를 가하지 않는 AI 시스템에 대한 예외 사항을 명확히 할 것으로 기대되었습니다.
이 가이드라인이 없으면 개발자들은 이분법적인 위험에 직면하게 됩니다. 과잉 준수는 불필요한 비용을 발생시키고 혁신을 늦추며, 미달 준수는 집행이 시작된 후 막대한 과징금을 부과받을 위험이 있습니다. 이러한 규칙을 확정하기 위한 집행위원회의 고군분투는 혁신 촉진과 안전 보장 사이의 긴장감을 잘 보여주며, 기술이 발전함에 따라 이 균형은 여전히 미묘한 상태로 남아 있습니다.
상황이 전개됨에 따라 업계는 이달 말에 나올 가이드라인의 최종 초안을 기다리고 있습니다. 이 초안에 대한 반응은 집행위원회가 디지털 옴니버스 지연을 추진할지, 아니면 원래의 타임라인을 서둘러 진행할지를 결정하게 될 것이며, 이 결정은 향후 수년간 유럽 AI 시장의 향방을 결정지을 것입니다.