AI News

Глобальные эксперты предупреждают о «глубокой неопределенности» в траектории развития ИИ перед саммитом в Индии

Глобальная коалиция из более чем 100 ведущих экспертов по искусственному интеллекту выпустила Второй международный отчет по безопасности ИИ (Second International AI Safety Report), выступив с резким предупреждением о непредсказуемой эволюции систем ИИ общего назначения. Опубликованный всего за несколько дней до важного саммита India AI Impact Summit в Нью-Дели, отчет подчеркивает критический разрыв между стремительным развитием возможностей ИИ и «недостаточными» мерами безопасности, существующими в настоящее время для управления ими.

Под председательством лауреата премии Тьюринга, ученого Йошуа Бенжио (Yoshua Bengio), отчет служит документом научного консенсуса, призванным направлять политиков на предстоящем саммите. Признавая огромный потенциал ИИ для стимулирования экономического роста и научных открытий, результаты исследования рисуют сложную картину технологии, которая развивается бешеными темпами, часто опережая способность человека понимать или контролировать ее.

Парадокс «зазубренного» интеллекта

Одним из наиболее значимых выводов отчета является феномен «зазубренной» производительности (jagged performance) в самых современных моделях ИИ. Хотя эти системы достигли «результатов уровня золотых медалей» в вопросах Международной математической олимпиады и превзошли уровень экспертов с докторской степенью (PhD) в конкретных научных тестах, они продолжают терпеть эффектные неудачи в задачах, которые были бы тривиальны для человека.

Это несоответствие создает опасную иллюзию компетентности. Пользователи могут чрезмерно доверять системам в критических сценариях — таких как медицинская диагностика или юридический анализ — основываясь на их производительности в других высокоуровневых областях. В отчете отмечается, что эта непредсказуемость усугубляется появлением агентных систем (agentic systems), которые могут действовать автономно для выполнения многоэтапных задач.

«Как и почему модели искусственного интеллекта общего назначения (general-purpose AI) приобретают новые возможности и ведут себя определенным образом, часто трудно предсказать даже разработчикам», — говорится в отчете.

Эксперты предупреждают, что по мере того как эти агентные системы становятся все более интегрированными в экономику, потеря прямого человеческого контроля может позволить «опасным возможностям» оставаться незамеченными до момента развертывания.

Эскалация рисков: от биологических угроз до системного неравенства

Отчет 2026 года значительно расширяет категории рисков, определенных в первом издании 2025 года. В нем представлены новые эмпирические данные, свидетельствующие о том, что барьер для входа злоумышленников снижается.

Ключевые области, вызывающие обеспокоенность:

  • Биологические и киберриски: Системы ИИ теперь соответствуют или превосходят экспертные показатели в задачах, связанных с разработкой биологического оружия, таких как поиск и устранение неисправностей в протоколах вирусологических лабораторий. Аналогичным образом, эти инструменты используются для снижения порога навыков, необходимых для запуска сложных кибератак.
  • Дипфейки и изображения без согласия: Распространение контента, созданного ИИ, способствует росту мошенничества и интимных изображений без согласия (Non-Consensual Intimate Imagery, NCII), которые несоразмерно нацелены на женщин и девочек. В отчете приводится исследование, согласно которому 19 из 20 популярных приложений для «раздевания» специализируются на этой форме насилия.
  • Системные нарушения на рынке труда: Помимо непосредственных угроз безопасности, в отчете выявляются более широкие структурные риски. Интеграция ИИ в рынки труда угрожает усугубить неравенство с потенциалом массового вытеснения работников в секторах, которые ранее считались защищенными от автоматизации.

Таблица: Критические категории рисков, определенные в отчете 2026 года

Категория риска Основная проблема Текущий статус
Злонамеренное использование Снижение барьеров для кибератак и биооружия Высокая срочность; наблюдается активная эксплуатация
Системные риски Смещение рабочей силы и усиление глобального неравенства Долгосрочная угроза; требуется политическое вмешательство
Технические сбои Потеря контроля над автономными агентными системами Глубокая неопределенность; защитные меры «ненадежны»
Дезинформация Масштаб операций влияния, созданных ИИ Быстро растет; влияет на демократические процессы

Глобальный разрыв: история двух миров

Пока мир готовится к саммиту India AI Impact Summit, отчет проливает свет на неравномерное распределение преимуществ ИИ. Хотя внедрение было «быстрым», и по меньшей мере 700 миллионов человек еженедельно используют ведущие системы ИИ, это использование сильно сконцентрировано на Глобальном Севере.

Напротив, показатели внедрения в большей части Африки, Азии и Латинской Америки остаются ниже 10%. Этот «цифровой разрыв» представляет серьезный риск: если передовой ИИ станет основным двигателем будущего экономического роста, страны без доступа к технологии — или инфраструктуры для ее поддержки — могут навсегда остаться позади.

Это неравенство соответствует основным темам предстоящего саммита в Нью-Дели. Проходящий под лозунгом «сутр» Люди, Планета и Прогресс, саммит направлен на то, чтобы перевести глобальный диалог от теоретических дебатов о безопасности к практическим, инклюзивным результатам, которые принесут пользу Глобальному Югу (Global South).

Раскол в глобальном консенсусе?

В рамках заметного геополитического события Соединенные Штаты отказались подписывать окончательную версию отчета, несмотря на предоставление отзывов в процессе разработки. Это знаменует собой отход от единогласия прошлого года. Хотя этот шаг описывается некоторыми наблюдателями как «в значительной степени символический», он подчеркивает растущую напряженность между быстрыми инновациями и международными регуляторными механизмами.

Позиция США контрастирует с позицией других крупных держав, включая Европейский союз и Китай, которые поддержали выводы отчета. Это расхождение может подготовить почву для острых дискуссий на саммите в Нью-Дели, поскольку страны пытаются сбалансировать «гонку за превосходство в области ИИ» с необходимостью скоординированного глобального управления.

Взгляд в будущее Нью-Дели

Выпуск этого отчета определяет повестку дня саммита India AI Impact Summit, запланированного на 16–20 февраля 2026 года. Индийские официальные лица, включая министра Ашвини Вайшно (Ashwini Vaishnaw), подчеркнули, что встреча будет сосредоточена на «ответственной открытости» и «справедливом доступе» к вычислительным ресурсам.

Перед собравшимися политиками будет стоять задача воплотить научные предупреждения отчета в действенную политику. Как говорится в заключении документа, современные методы управления рисками «совершенствуются, но недостаточны». Теперь мир обращает взоры на Нью-Дели, чтобы преодолеть разрыв между выявлением этих экзистенциальных рисков и их фактическим смягчением.

Рекомендуемые