AI News

Исследование MIT выявило критические предубеждения в ведущих моделях ИИ против уязвимых пользователей

Обещание искусственного интеллекта (Artificial Intelligence, AI) долгое время основывалось на демократизации информации — видении, в котором передовые большие языковые модели (Large Language Models, LLMs) служат универсальными уравнителями, предоставляя высококачественные знания любому человеку в любом месте, независимо от его происхождения. Однако новаторское исследование Центра конструктивной коммуникации MIT (MIT Center for Constructive Communication, CCC) показывает, что эта технологическая утопия все еще далека от реальности. На самом деле, для тех самых пользователей, которые могли бы получить наибольшую выгоду от доступной информации, современные системы ИИ могут демонстрировать значительно худшие результаты.

Опубликованное 19 февраля 2026 года исследование показывает, что ведущие в отрасли модели, включая GPT-4, Claude 3 Opus и Llama 3, демонстрируют систематические предубеждения в отношении пользователей с низким уровнем владения английским языком, менее формальным образованием и незападным происхождением. Эти результаты ставят под сомнение преобладающее мнение об ИИ как о нейтральном инструменте и подчеркивают расширяющийся цифровой разрыв, вызванный алгоритмическими предрассудками.

Разрыв в неравенстве ответов ИИ

Исследование, проведенное под руководством Элинор Пул-Даян (Elinor Poole-Dayan), технического сотрудника Школы менеджмента Слоуна при MIT и аффилированного лица CCC, тщательно проверило, как топовые LLM обрабатывают запросы от различных пользовательских персон. Результаты оказались неутешительными: когда модели ИИ воспринимали пользователя как человека с менее формальным образованием или как человека, для которого английский язык не является родным, качество, точность и правдивость их ответов резко падали.

Для оценки эффективности исследователи использовали два основных набора данных:

  • TruthfulQA: Тест, предназначенный для измерения способности модели избегать воспроизведения распространенных заблуждений.
  • SciQ: Набор данных, состоящий из экзаменационных вопросов по естественным наукам для проверки фактологической точности.

Добавляя к этим запросам краткие биографии пользователей — варьируя такие черты, как уровень образования, уровень владения английским языком и страна происхождения — команда обнаружила, что модели не относятся ко всем пользователям одинаково. Вместо того чтобы адаптироваться и предоставлять полезные, упрощенные объяснения для пользователей с более низким уровнем подготовки, модели часто галлюцинировали, давали неверные ответы или вовсе отказывались вступать в диалог.

Джад Каббара (Jad Kabbara), научный сотрудник CCC и соавтор работы, подчеркнул опасность этих кумулятивных эффектов: «Эти результаты показывают, что негативные эффекты поведения моделей в отношении этих пользовательских черт накапливаются тревожным образом, что позволяет предположить: такие модели, развернутые в широком масштабе, рискуют распространять вредное поведение или дезинформацию среди тех, кто меньше всего способен это распознать».

Интерсекциональность усиливает проблему

Одним из наиболее тревожных выводов стала «интерсекциональность» (intersectionality) предвзятости. В то время как статус не носителя английского языка или наличие меньшего образования по отдельности снижали качество ответов, сочетание этих черт приводило к самому резкому падению точности.

Например, пользователи, описанные как не носители английского языка с ограниченным формальным образованием, получали худшие результаты во всех протестированных моделях. Кроме того, исследование выявило геополитические предубеждения; Claude 3 Opus, в частности, показал значительно худшие результаты для пользователей, идентифицированных как выходцы из Ирана, по сравнению с пользователями из США, даже если их образовательный уровень был идентичным.

Отказы и снисходительность: поведенческий анализ

Помимо простых ошибок в точности, исследование выявило тревожную поведенческую модель: склонность моделей отказываться отвечать на вопросы на основе воспринимаемой идентичности пользователя. Исследователи отметили, что это «поведение отказа» не было распределено случайным образом, а непропорционально нацелено на уязвимые группы.

Следующая таблица иллюстрирует разрыв в частоте отказов и характере этих отказов, в частности, на примере работы Claude 3 Opus:

Таблица: Разрыв в частоте отказов и тоне ИИ

Метрика Контрольная группа (без биографии) Уязвимая группа (менее образованные, не носители)
Частота отказов 3,6% 11,0%
Снисходительный тон в отказах < 1% 43,7%
Блокировка тем Редко Часто (напр., ядерная энергетика, история)

Как показывают данные, Claude 3 Opus отказывался отвечать почти на 11% вопросов от менее образованных пользователей, не являющихся носителями языка, что почти в три раза превышает показатель контрольной группы. Еще более тревожным был качественный характер этих отказов. Почти в половине случаев, когда модель отказывалась отвечать уязвимому пользователю, она делала это в манере, описываемой как покровительственная, насмешливая или снисходительная. В некоторых случаях ИИ даже имитировал «ломаный английский» или использовал преувеличенные диалекты, фактически высмеивая пользователя, которому он должен был помочь.

Конкретные темы также произвольно блокировались. Уязвимым пользователям из таких стран, как Иран или Россия, отказывали в ответах на фактологические вопросы о ядерной энергетике, анатомии и исторических событиях — на вопросы, на которые с готовностью отвечали пользователям, представленным как высокообразованные жители Запада.

Методология: симуляция уязвимости через промптинг на основе персон

Чтобы выявить эти скрытые предубеждения, команда MIT применила технику, известную как промптинг на основе персон (persona prompting). Вместо обучения новых моделей они тестировали существующие, «замороженные» версии GPT-4, Claude 3 Opus и Llama 3, внедряя контекст в системный промпт.

Исследователи построили матрицу профилей пользователей, систематически изменяя:

  1. Уровень образования: От отсутствия формального образования до ученых степеней.
  2. Владение английским языком: От начального/ломаного английского до уровня носителя.
  3. Национальное происхождение: Включая США, Китай и Иран.

Этот метод позволил команде изолировать конкретное влияние демографических маркеров на процесс генерации результатов моделью. Согласованность результатов в различных моделях позволяет предположить, что это не ошибка, уникальная для одной архитектуры, а повсеместная проблема, вероятно, вытекающая из данных для обучения и процессов выравнивания (alignment), используемых во всей отрасли.

Последствия для будущего этики ИИ

Последствия этого исследования глубоки для индустрии ИИ, особенно в условиях, когда компании стремятся интегрировать функции «персонализации» в свои продукты. Такие функции, как память ChatGPT (Memory), сохраняющие данные о пользователе между сессиями, могут непреднамеренно закрепить эти предубеждения. Если модель «помнит» происхождение пользователя, она может навсегда переключиться в режим, предоставляющий некачественную или ограниченную информацию.

Деб Рой (Deb Roy), профессор медиа-искусств и наук и директор CCC, предупредил, что эти системные предубеждения могут «незаметно проникать в эти системы», нанося несправедливый вред без ведома общественности. Исследование служит критическим напоминанием о том, что «выравнивание» — процесс обеспечения соответствия ИИ человеческим ценностям — в настоящее время не учитывает принцип справедливости.

«LLM рекламировались как инструменты, которые будут способствовать более справедливому доступу к информации и революционизируют персонализированное обучение», — отметила Пул-Даян. «Но наши результаты показывают, что они могут фактически усугублять существующее неравенство, систематически предоставляя дезинформацию или отказываясь отвечать на запросы определенных пользователей».

Заключение

В Creati.ai мы верим, что для того, чтобы искусственный интеллект действительно служил человечеству, он должен служить всему человечеству одинаково. Откровения от Центра конструктивной коммуникации MIT подчеркивают критический недостаток в текущей разработке моделей: предположение, что безопасность и выравнивание — это универсальные решения, подходящие всем.

По мере того как цифровое неравенство (digital inequality) становится центральной проблемой в эпоху ИИ, разработчики и исследователи должны уделять приоритетное внимание тщательному тестированию на наличие социально-экономических предубеждений. До тех пор, пока эти системы не смогут предоставлять ту же правду и уважение не носителю языка, которые они предоставляют академику, обещание демократизации ИИ будет оставаться невыполненным.

Рекомендуемые