
제약 산업의 획기적인 행보로, 미국 식품의약국(FDA)과 유럽 의약품청(EMA)은 신약 개발에 특화된 **선한 AI 실무를 위한 10대 기본 원칙(10 Guiding Principles for Good AI Practice)**을 공동 발표했습니다. 2026년 1월 14일에 공개된 이 협력은 2026년 8월 유럽 연합의 포괄적인 AI 법(AI Act)이 전면 시행되기 불과 몇 달 전에 이루어진 것으로, 글로벌 규제 통합을 향한 중요한 발걸음을 의미합니다.
AI 중심의 제약 분야 이해관계자들에게 이번 발표는 단순한 가이드라인 그 이상이며, 전략적 로드맵입니다. 인공지능(AI)이 분자 발견부터 약물 감시(Pharmacovigilance)에 이르기까지 의약품의 생애주기에 점점 더 깊숙이 통합됨에 따라, 조화로운 규제 프레임워크에 대한 필요성이 그 어느 때보다 시급해졌습니다. 이번 공동 원칙은 안전성, 유효성 및 품질이 타협되지 않도록 보장하는 동시에 혁신을 촉진하는 것을 목표로 합니다.
이러한 발전은 중대한 시점에 이루어졌습니다. 2026년 8월 2일부터 시행되는 **EU AI 법(EU AI Act)**의 "고위험" AI 시스템에 대한 엄격한 요구 사항으로 인해, 대서양 양안에서 활동하는 제약 회사들은 진화하는 법적 표준에 맞춰 기술을 조정해야 한다는 거대한 압박을 받고 있습니다. FDA와 EMA의 정렬은 개발자들이 기술과 규제의 복잡한 교차점을 탐색하는 데 도움을 줄 수 있는 공유된 용어와 기대치를 제공하여 꼭 필요한 완충 지대 역할을 합니다.
FDA의 의약품 평가 연구 센터(CDER), 생물의약품 평가 연구 센터(CBER) 및 EMA가 발표한 10대 원칙은 의약품 생애주기 전반에 걸쳐 적용되도록 설계되었습니다. 이 원칙들은 "위험 기반" 및 "인간 중심" 접근 방식을 강조하며, 규제 기관이 강력한 감독 없이는 비판적 의사결정 과정에서 "블랙박스" 알고리즘을 수용하지 않을 것임을 시사합니다.
다음 표는 10대 원칙, 핵심 초점 및 신약 개발자를 위한 실질적인 시사점을 정리한 것입니다.
Table 1: The FDA-EMA 10 Guiding Principles for AI in 신약 개발(Drug Development)
| 원칙 명칭 | 핵심 초점 | 운영 요구 사항 |
|---|---|---|
| 디자인부터 인간 중심 (Human-Centric by Design) | 윤리적 일치 및 인간 감독 | AI는 환자의 이익에 기여해야 하며, 중요한 결과물에는 인간의 검토가 필수적임. |
| 위험 기반 접근 방식 (Risk-Based Approach) | 비례적인 검증 및 감독 | 검증 노력은 모델의 위험 수준과 잠재적인 환자 위해 요소에 상응해야 함. |
| 표준 준수 (Adherence to Standards) | 규제 및 기술적 준수 | 모델은 GxP, ISO 표준 및 관련 지역 법률(예: EU AI 법)을 따라야 함. |
| 명확한 사용 맥락 (Clear Context of Use) | 정의된 운영 경계 | 개발자는 AI 모델이 언제, 어디서, 어떻게 사용되어야 하는지 정확히 명시해야 함. |
| 다학제적 전문성 (Multidisciplinary Expertise) | 부서 간 협업 | 팀에는 데이터 과학자, 임상의 및 규제 전문가가 포함되어야 함. |
| 데이터 거버넌스(Data Governance) 및 문서화 | 추적성 및 무결성 | 데이터 계보, 품질 및 편향 관리가 엄격하게 문서화되어야 함. |
| 모델 디자인 및 개발 (Model Design and Development) | 소프트웨어 엔지니어링의 모범 사례 | 코드는 견고하고 재현 가능해야 하며 해석 가능성을 염두에 두고 설계되어야 함. |
| 위험 기반 성능 평가 (Risk-Based Performance Assessment) | 지속적인 테스트 지표 | 지표는 단순히 통계적 정확도가 아니라 실제 임상적 위험을 반영해야 함. |
| 생애주기 관리(Life Cycle Management) | 배포 후 모니터링 | 데이터 드리프트(Data drift) 및 성능 저하에 대한 지속적인 모니터링이 필수적임. |
| 명확하고 필수적인 정보 (Clear, Essential Information) | 최종 사용자를 위한 투명성 | 사용자는 자신이 AI와 상호작용하고 있음을 인지하고 그 한계를 이해해야 함. |
인간 중심성 및 윤리
첫 번째 원칙인 "디자인부터 인간 중심"은 규제 기관의 근본적인 입장을 강조합니다. 즉, AI는 의료 분야에서 인간의 판단을 대체하는 것이 아니라 보완하는 도구라는 점입니다. 임상 시험을 설계하든 안전성 데이터를 분석하든, 최종적인 책임은 인간 전문가에게 있습니다. 이 원칙은 알고리즘 편향에 대한 우려와 환자 건강에 영향을 미치는 결정을 자동화하는 것에 대한 윤리적 시사점을 직접적으로 다룹니다.
위험 기반 패러다임
원칙 2와 8("위험 기반 접근 방식" 및 "위험 기반 성능 평가")은 산업 운영 측면에서 아마도 가장 중요한 부분일 것입니다. 이는 규제 기관이 "모든 경우에 동일하게 적용되는(One-size-fits-all)" 입증 책임을 적용하지 않을 것임을 시사합니다. 내부 물류 최적화에 사용되는 단순한 AI 도구는 임상 시험을 위한 대조군 데이터를 합성하는 데 사용되는 생성형 AI(Generative AI) 모델보다 훨씬 적은 검증을 요구할 것입니다. 이러한 계층적 접근 방식은 유연성을 허용하지만, 기업이 정교한 내부 위험 분류 체계를 갖출 것을 요구합니다.
데이터 무결성 및 거버넌스
원칙 6을 통해 양 기관은 "쓰레기를 넣으면 쓰레기가 나온다(Garbage in, garbage out)"는 격언을 재차 강조하고 있습니다. 신약 개발의 맥락에서 이는 매우 중요합니다. 실제 임상 데이터(RWD)와 과거 임상 시험 데이터에는 종종 숨겨진 편향이나 불일치가 포함되어 있습니다. 강력한 데이터 거버넌스 요구 사항은 제약 회사가 원시 소스부터 최종 모델 출력까지 추적성을 보장하는 데이터 인프라에 집중적으로 투자해야 함을 의미합니다.
FDA-EMA 원칙이 "연성법(Soft law)" 또는 가이드라인 역할을 하는 반면, EU AI 법은 미준수 시 막대한 벌금이 부과되는 "경성법(Hard law)"을 대표합니다. FDA-EMA 발표 시점은 전략적이며, 2026년 8월 법안의 전면 시행을 위한 가교 역할을 합니다.
2026년 8월 2일, "고위험" AI 시스템에 관한 EU AI 법 규정의 대부분이 적용되기 시작합니다. 많은 제약 AI 애플리케션이 (특정 사용 사례나 의료 기기의 안전 구성 요소로 간주되는지 여부에 따라) 엄격한 "고위험" 정의에서 벗어날 수 있지만, 규제 환경은 점점 더 엄격한 조사로 이동하고 있습니다.
공동 원칙은 특히 다음과 같은 측면에서 EU AI 법의 요구 사항과 밀접하게 일치합니다:
이러한 정렬은 시장 파편화를 줄여줍니다. 이제 글로벌 제약 회사는 FDA의 증거 생성 기대치와 새로운 유럽 프레임워크에 따른 EMA의 요구 사항을 모두 충족하는 임상 시험용 AI 모델을 개발할 수 있으며, 지역별 모델 재학습의 필요성을 줄일 수 있습니다.
제약 산업에 있어 이번 발표는 AI 실험의 "서부 개척 시대"가 끝났음을 알리는 신호입니다. 이제 혁신은 엄격한 문서화 및 검증과 결합되어야 합니다.
CBER, CDER 및 EMA 간의 협력은 업계에 긍정적인 신호입니다. 서로 다른 규제는 오랫동안 글로벌 신약 개발 프로그램의 골칫거리였습니다. 공유된 가치를 설정함으로써 양 기관은 AI 모델 검증 데이터의 상호 인정과 같은 향후 협약을 위한 길을 닦고 있습니다.
이러한 원칙이 명확성을 제공함에도 불구하고 과제는 남아 있습니다. "해석 가능성"(원칙 7)에 대한 해석은 종종 주관적입니다. 종종 "블랙박스"라고 불리는 딥러닝 모델은 설명하기가 매우 어려운 것으로 알려져 있습니다. 규제 기관이 해석 불가능한 모델의 높은 성능과 설명 가능성에 대한 요구 사항 사이에서 어떻게 균형을 맞출 것인지는 계속 지켜봐야 할 핵심 영역입니다.
또한 생성형 AI가 계속 발전함에 따라 "데이터 거버넌스" 원칙은 저작권 및 합성 데이터 사용과 관련하여 시험대에 오를 것입니다. 양 기관은 이러한 원칙이 "첫 번째 단계"이며, 기술이 성숙해짐에 따라 더 구체적인 가이드라인이 개발될 것임을 인정했습니다.
2026년 남은 기간 동안 FDA와 EMA는 약물 감시 분야의 AI나 AI 기반 바이오마커 발견과 같은 특정 시나리오에 이러한 원칙이 어떻게 적용되는지에 대한 구체적인 사례 연구나 "모의" 예시를 발표할 것으로 예상됩니다.
FDA와 EMA의 공동 AI 원칙(AI principles) 발표는 신약 개발에 있어 분수령이 되는 순간입니다. 이는 공중 보건을 보호하기 위해 필요한 안전 장치를 구축하는 동시에, 중대한 의료 연구에서 AI 사용을 정당화합니다. 업계가 2026년 8월 EU AI 법 시행을 향해 달려가는 가운데, 이 원칙들은 필수적인 나침반 역할을 합니다.
Creati.ai와 헬스케어 분야의 광범위한 AI 혁신가 공동체에 전달하는 메시지는 명확합니다. 미래는 안전과 투명성의 엄격한 표준을 준수하면서 과감하게 혁신할 수 있는 자들의 것입니다. 제약 분야에서 규제된 AI의 시대가 공식적으로 도래했습니다.