AI News

FDA и EMA объединяются в вопросах ИИ: новая эра для разработки лекарственных средств (Drug Development)

В рамках знакового шага для фармацевтической отрасли Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) и Европейское агентство по лекарственным средствам (EMA) совместно объявили о первом наборе из 10 руководящих принципов надлежащей практики ИИ (10 Guiding Principles for Good AI Practice), специально адаптированных для разработки лекарств. Опубликованное 14 января 2026 года, это сотрудничество знаменует собой критически важный шаг на пути к глобальному сближению нормативно-правового регулирования, предпринятый всего за несколько месяцев до того, как в августе 2026 года вступит в силу комплексный Закон ЕС об ИИ (EU AI Act).

Для заинтересованных сторон в фармацевтическом секторе, управляемом искусственным интеллектом (Artificial Intelligence, AI), это объявление является не просто руководством, а стратегической дорожной картой. По мере того как ИИ все глубже внедряется в жизненный цикл лекарственных препаратов — от открытия молекул до фармаконадзора (pharmacovigilance), — потребность в гармонизированной нормативной базе становится как никогда актуальной. Совместные принципы направлены на стимулирование инноваций при обеспечении того, чтобы безопасность, эффективность и качество оставались неизменными.

Это событие произошло в переломный момент. В связи с тем, что 2 августа 2026 года вступят в силу строгие требования Закона ЕС об ИИ (EU AI Act) для систем ИИ «высокого риска», фармацевтические компании, работающие по обе стороны Атлантики, находятся под огромным давлением необходимости привести свои технологии в соответствие с развивающимися правовыми стандартами. Согласование действий FDA и EMA обеспечивает столь необходимый буфер, предлагая общий лексикон и набор ожиданий, которые помогут разработчикам ориентироваться на сложном стыке технологий и регулирования.

10 совместных руководящих принципов: подробный разбор

Десять принципов, выпущенных Центром по оценке и исследованию лекарственных средств (CDER) FDA, Центром по оценке и исследованию биологических препаратов (CBER) и EMA, предназначены для применения на протяжении всего жизненного цикла лекарств. Они подчеркивают «риск-ориентированный» и «человекоцентричный» подход, сигнализируя о том, что регуляторы не допустят алгоритмов «черного ящика» (black box) в критически важных процессах принятия решений без надежного надзора.

В следующей таблице представлены десять принципов, их основная направленность и практические последствия для разработчиков лекарств:

Таблица 1: 10 руководящих принципов FDA-EMA для ИИ в разработке лекарственных средств (Drug Development)

Название принципа Основная направленность Операционное требование
Человекоцентричность при проектировании Этическое соответствие и человеческий надзор ИИ должен служить интересам пациента; человеческий контроль обязателен для критически важных результатов.
Риск-ориентированный подход Пропорциональная валидация и надзор Усилия по валидации должны соответствовать уровню риска модели и потенциальному вреду для пациента.
Соблюдение стандартов Нормативное и техническое соответствие Модели должны соответствовать стандартам GxP, ISO и соответствующим региональным законам (например, Закону ЕС об ИИ).
Четкий контекст использования Определенные операционные границы Разработчики должны точно указать, когда, где и как следует использовать модель ИИ.
Мультидисциплинарная экспертиза Кросс-функциональное сотрудничество Команды должны включать специалистов по данным (data scientists), клиницистов и экспертов по вопросам регулирования.
Управление данными (Data Governance) и документация Прослеживаемость и целостность Происхождение данных, управление качеством и предвзятостью должны строго документироваться.
Проектирование и разработка моделей Лучшие практики в разработке программного обеспечения Код должен быть надежным, воспроизводимым и спроектированным для интерпретируемости.
Риск-ориентированная оценка производительности Метрики непрерывного тестирования Метрики должны отражать реальные клинические риски, а не только статистическую точность.
Управление жизненным циклом (Life Cycle Management) Мониторинг после внедрения Необходим непрерывный мониторинг дрейфа данных (data drift) и деградации производительности.
Четкая, важная информация Прозрачность для конечных пользователей Пользователи должны знать, что они взаимодействуют с ИИ, и понимать его ограничения.

Анализ ключевых тем

Человекоцентричность и этика
Первый принцип, «Человекоцентричность при проектировании», подчеркивает фундаментальную позицию регуляторов: ИИ — это инструмент для дополнения, а не замены человеческого суждения в медицине. Будь то планирование клинического исследования или анализ данных по безопасности, окончательная ответственность лежит на экспертах-людях. Этот принцип напрямую касается проблем алгоритмической предвзятости и этических последствий автоматизации решений, влияющих на здоровье пациентов.

Риск-ориентированная парадигма
Принципы 2 и 8 («Риск-ориентированный подход» и «Риск-ориентированная оценка производительности»), пожалуй, являются наиболее значимыми для деятельности отрасли. Они предполагают, что регуляторы не будут применять единое бремя доказательств для всех случаев. Простой инструмент ИИ, используемый для оптимизации внутренней логистики, потребует гораздо меньшей валидации, чем модель генеративного ИИ (Generative AI), используемая для синтеза данных контрольной группы в клиническом исследовании. Такой многоуровневый подход обеспечивает гибкость, но требует от компаний наличия сложных внутренних структур классификации рисков.

Целостность данных и управление ими
В принципе 6 агентства подтверждают мантру «мусор на входе — мусор на выходе». В контексте разработки лекарств это имеет решающее значение. Данные реального мира (RWD) и исторические данные клинических исследований часто содержат скрытые искажения или несоответствия. Требование надежного управления данными означает, что фармацевтические компании должны вкладывать значительные средства в инфраструктуру данных, обеспечивающую прослеживаемость от исходного источника до конечного результата модели.

Дедлайн в августе 2026 года: связь с Законом ЕС об ИИ

В то время как принципы FDA-EMA действуют как «мягкое право» или руководство, Закон ЕС об ИИ (EU AI Act) представляет собой «жесткое право» со значительными штрафами за несоблюдение. Выбор времени для объявления FDA-EMA является стратегическим, обеспечивая мост к полному внедрению Закона в августе 2026 года.

2 августа 2026 года вступит в силу большинство правил Закона ЕС об ИИ, касающихся систем ИИ «высокого риска». Хотя многие фармацевтические приложения ИИ могут не подпадать под строгие определения «высокого риска» (в зависимости от их конкретного сценария использования и того, считаются ли они компонентами безопасности медицинских изделий), регуляторный ландшафт смещается в сторону более строгого контроля.

Совместные принципы тесно перекликаются с требованиями Закона ЕС об ИИ, особенно в отношении:

  • Прозрачности: Принцип 10 отражает обязательства по прозрачности, изложенные в Законе (статья 50), требуя информирования пользователей о том, что они взаимодействуют с системами ИИ.
  • Управления: Акцент на управлении жизненным циклом и данными в совместных принципах помогает компаниям подготовиться к оценке соответствия, предусмотренной Законом.
  • Стандартизации: Придерживаясь этих принципов сейчас, компании могут подготовить свои конвейеры разработки к обязательным требованиям, которые вступят в силу в конце этого года.

Такое согласование уменьшает фрагментацию рынка. Глобальная фармацевтическая компания теперь может разрабатывать модель ИИ для клинического исследования, которая удовлетворяет как ожиданиям FDA в отношении генерации доказательств, так и требованиям EMA в рамках новой европейской базы, что снижает необходимость в переобучении моделей для конкретных регионов.

Влияние на фармацевтическую промышленность

Для фармацевтической промышленности это объявление знаменует окончание эры «дикого запада» в экспериментах с ИИ. Инновации теперь должны сочетаться со строгой документацией и валидацией.

Стратегические сдвиги для фармацевтических компаний

  1. Интегрированные группы по соблюдению нормативных требований: Принцип «Мультидисциплинарная экспертиза» предписывает, что специалисты по данным больше не могут работать изолированно. Специалисты по регуляторным вопросам должны быть вовлечены в процесс разработки модели с первого дня, чтобы гарантировать правильное определение «контекста использования».
  2. Инвестиции в MLOps: Требование «Управления жизненным циклом» (Принцип 9) обуславливает необходимость создания надежной инфраструктуры операций машинного обучения (Machine Learning Operations, MLOps). Компаниям нужны системы, способные обнаруживать «дрейф данных» — когда популяция пациентов в реальном мире начинает отличаться от обучающих данных — и автоматически запускать протоколы переобучения.
  3. Управление вендорами: Многие фармкомпании полагаются на сторонних поставщиков ИИ. Эти принципы подразумевают, что спонсоры несут ответственность за используемые ими инструменты ИИ. Процессы комплексной проверки (due diligence) при выборе партнеров в области ИИ теперь должны включать аудит соответствия вендора этим 10 принципам.

Роль регуляторного согласования

Сотрудничество между CBER, CDER и EMA является позитивным сигналом для отрасли. Расхождения в правилах регулирования долгое время были болевой точкой для глобальных программ разработки лекарств. Устанавливая общий набор ценностей, агентства прокладывают путь для потенциальных будущих соглашений, таких как взаимное признание данных валидации моделей ИИ.

Проблемы и перспективы на будущее

Несмотря на ясность, внесенную этими принципами, проблемы остаются. Интерпретация «интерпретируемости» (Принцип 7) часто субъективна. Модели глубокого обучения, часто называемые «черными ящиками», печально известны сложностью объяснения. То, как регуляторы будут балансировать между высокой производительностью неинтерпретируемых моделей и требованием объяснимости, остается ключевой областью для наблюдения.

Кроме того, по мере развития генеративного ИИ (Generative AI) принцип «Управления данными» столкнется с испытаниями, касающимися авторского права и использования синтетических данных. Агентства признали, что эти принципы являются «первым шагом» и что по мере созревания технологии будут разработаны дальнейшие, более детальные руководства.

Заглядывая в оставшуюся часть 2026 года, мы ожидаем, что FDA и EMA выпустят конкретные примеры (case studies) или «учебные» сценарии применения этих принципов, например, ИИ в фармаконадзоре или поиск биомаркеров на основе ИИ.

Заключение

Публикация совместных принципов ИИ (AI principles) FDA и EMA является водоразделом для разработки лекарств. Она легитимизирует использование ИИ в ответственных медицинских исследованиях, устанавливая при этом барьеры, необходимые для защиты общественного здоровья. Пока отрасль стремится к вступлению в силу Закона ЕС об ИИ в августе 2026 года, эти принципы служат жизненно важным компасом.

Для Creati.ai и широкого сообщества инноваторов ИИ в здравоохранении посыл ясен: будущее принадлежит тем, кто может смело внедрять инновации, придерживаясь строгих стандартов безопасности и прозрачности. Эра регулируемого ИИ в фармации официально наступила.

Рекомендуемые