AI News

Google под огнем критики: медицинские дисклеймеры, спрятанные в обзорах ИИ (AI Overviews)

Новое расследование вызвало серьезную критику в отношении реализации Google функции обзоров ИИ (AI Overviews), особенно в том, что касается обработки поисковым гигантом медицинской информации. Согласно отчету The Guardian, Google не отображает критически важные предупреждения о безопасности, когда пользователям впервые предоставляются медицинские советы, сгенерированные ИИ. Это упущение вызвало тревогу у экспертов по безопасности ИИ и медицинских работников, которые утверждают, что текущий дизайн отдает приоритет бесшовному пользовательскому опыту в ущерб безопасности пациентов, потенциально подвергая пользователей воздействию вводящей в заблуждение или опасной медицинской информации.

Поскольку ИИ продолжает менять ландшафт цифровой информации, интеграция генеративных моделей (generative models) в поисковые системы стала центром инноваций. Однако этот последний скандал подчеркивает сохраняющееся напряжение между быстрым развертыванием технологий ИИ и строгими стандартами безопасности, необходимыми для таких чувствительных областей, как здравоохранение.

Расследование: скрытые предупреждения на виду

Суть критики кроется в дизайне пользовательского интерфейса обзоров ИИ Google. Когда пользователь запрашивает информацию на тему, связанную со здоровьем — от проверки симптомов инсульта до вопросов о сердечных приступах — сгенерированное ИИ резюме появляется в самом верху результатов поиска, часто вытесняя традиционные веб-ссылки.

Расследование The Guardian показало, что на начальном экране, в так называемой «верхней части страницы» (above the fold), нет видимых дисклеймеров, предупреждающих пользователей о том, что информация сгенерирована ИИ и может быть неточной. Чтобы увидеть любое предупреждение о безопасности, пользователь должен активно взаимодействовать с интерфейсом, нажав кнопку «Показать больше» (Show more). Даже в этом случае дисклеймер не отображается на видном месте в верхней части развернутого текста. Вместо этого он расположен в самом низу сгенерированного контента и набран мелким, светлым шрифтом, который легко не заметить.

Скрытый дисклеймер гласит: «Это предназначено только для информационных целей. Для получения медицинской консультации или постановки диагноза обратитесь к специалисту. Ответы ИИ могут содержать ошибки».

Критики утверждают, что такой дизайн предполагает уровень внимательности пользователя, который редко встречается при обычном поиске в Интернете. К тому времени, когда пользователь прокручивает страницу до конца развернутого вида, он уже усвоил резюме ИИ, потенциально приняв его как факт, не увидев оговорки о том, что система склонна к ошибкам.

Экспертный анализ: опасности «бесшовного» поиска информации о здоровье

Решение спрятать медицинские дисклеймеры (health disclaimers) вызвало резкое порицание со стороны ведущих экспертов в области этики ИИ и медицинских исследований. Консенсус среди этих экспертов заключается в том, что отсутствие немедленного «трения» — такого как заметная предупреждающая надпись — побуждает пользователей слепо доверять результатам работы машины.

Пэт Патаранутапорн (Pat Pataranutaporn), доцент и технолог Массачусетского технологического института (MIT), подчеркнул двойную опасность такого дизайнерского решения. Он отметил, что модели ИИ известны своим «сикофантским поведением» (sycophantic behavior), отдавая приоритет ответам, которые удовлетворяют запрос пользователя, а не строгой точности. В контексте здравоохранения это желание угодить может иметь катастрофические последствия.

«Во-первых, даже самые продвинутые модели ИИ сегодня все еще галлюцинируют дезинформацией... В контексте здравоохранения это может быть по-настоящему опасно», — заявил Патаранутапорн. Далее он пояснил, что дисклеймеры служат необходимым «пунктом вмешательства», чтобы разрушить автоматическое доверие и стимулировать критическое мышление. Без них пользователи могут неверно интерпретировать симптомы или не предоставить необходимый контекст, что приведет к тому, что ИИ выдаст нерелевантный или вредный совет.

Джина Нефф (Gina Neff), профессор ответственного ИИ в Лондонском университете королевы Марии (Queen Mary University of London), поддержала эти опасения, предположив, что проблема носит структурный, а не случайный характер. «Обзоры ИИ созданы для скорости, а не для точности», — заметила Нефф, подразумевая, что стремление к упрощенному пользовательскому интерфейсу поставило под угрозу протоколы безопасности, необходимые для медицинских запросов.

Визуальная иерархия и доверие пользователей

Психологическое воздействие размещения обзора ИИ невозможно переоценить. Располагая резюме ИИ в самом верху страницы результатов поиска, Google неявно сигнализирует о том, что этот контент является наиболее актуальным и авторитетным ответом.

Сонали Шарма (Sonali Sharma), исследователь из Центра ИИ в медицине и визуализации Стэнфордского университета (Stanford University), отметила, что такое размещение создает «чувство уверенности». Пользователи, ищущие быстрые ответы в моменты беспокойства — например, при изучении внезапного симптома — скорее всего, прочитают начальное резюме и остановятся на этом. Такое поведение, известное как «сатисфайзинг» (satisficing), означает, что пользователи соглашаются на первый приемлемый ответ, который они встречают.

«Основная проблема заключается в том, что эти обзоры ИИ Google (Google AI Overviews) появляются в самом верху страницы поиска и часто дают то, что кажется полным ответом», — объяснила Шарма. «Становится очень трудно отличить правду от лжи, если вы еще не знакомы с предметом обсуждения».

Если дисклеймер спрятан за кликом и прокруткой, он фактически не существует для большинства пользователей, которые полагаются на первоначальный снимок экрана.

Сравнительный анализ: реализация Google против стандартов безопасности

В следующей таблице сопоставляются текущие дизайнерские решения Google с рекомендациями защитников безопасности пациентов и этиков ИИ.

Текущая реализация Google Лучшие практики безопасности Потенциальный фактор риска
Дисклеймер скрыт за кнопкой «Показать больше» Дисклеймер виден сразу при загрузке Пользователи могут действовать на основании совета, не видя предупреждений
Высокий риск принятия дезинформации
Предупреждение находится внизу текста Предупреждение размещено вверху (заголовок) Поведение типа «сатисфайзинг» ведет к игнорированию предупреждений
Теряется критически важный контекст
Мелкий, светло-серый шрифт Тот же размер/жирность, что и основной текст, или жирный шрифт Визуальная иерархия преуменьшает важность безопасности
Сложнее читать слабовидящим
Реактивный (пользователь должен кликнуть) Проактивный (всегда виден) Полагается на действия пользователя для раскрытия информации
Предполагает высокую бдительность пользователя

Защита Google и продолжающиеся трудности

В ответ на критику Google заявила, что ее система разработана как ответственная. Представитель компании заявил, что обзоры ИИ «побуждают людей обращаться за профессиональной медицинской помощью» и часто упоминают о необходимости медицинского вмешательства в самом тексте резюме. Компания отрицает, что она преуменьшает значение безопасности, утверждая, что контент предназначен для ознакомления.

Однако это не первый случай, когда Google сталкивается с негативной реакцией на свои функции поиска с использованием ИИ. В январе отдельное расследование показало, что ИИ Google генерировал ложную и вводящую в заблуждение медицинскую информацию, что заставило компанию удалить обзоры ИИ для определенных медицинских запросов. Несмотря на эти корректировки, сохранение проблемы скрытого дисклеймера предполагает, что основополагающая философия дизайна — приоритет чистого, не обремененного лишними элементами интерфейса — остается более важной, чем явное создание «трения» ради безопасности.

Более широкие последствия для ИИ в здравоохранении

Скандал вокруг обзоров ИИ Google затрагивает фундаментальную проблему внедрения искусственного интеллекта: концепцию E-E-A-T (опыт, экспертность, авторитетность и надежность — Experience, Expertise, Authoritativeness, and Trustworthiness). В области медицины надежность имеет первостепенное значение. Когда поисковая система выступает в качестве посредника при предоставлении медицинских советов, она берет на себя уровень ответственности, сопоставимый с издателем медицинской литературы.

Том Бишоп (Tom Bishop), руководитель отдела информации для пациентов в благотворительной организации по борьбе с раком крови Anthony Nolan, призвал к срочным изменениям в интерфейсе. Он утверждает, что для медицинских запросов дисклеймер должен быть «первым, что вы видите», и должен соответствовать размеру шрифта основного текста.

«Мы знаем, что дезинформация — это реальная проблема, но когда речь идет о медицинской дезинформации, это потенциально очень опасно», — сказал Бишоп. Его комментарии отражают растущее требование к технологическим гигантам нести ответственность за «информационную архитектуру» (information architecture), которую они создают. Недостаточно иметь правильные данные где-то в системе; представление этих данных должно учитывать психологию человека и вероятность ошибки.

Заключение

По мере того как ИИ продолжает все глубже интегрироваться в нашу повседневную жизнь, механизмы, с помощью которых мы получаем доступ к информации, претерпевают радикальные изменения. Борьба Google за баланс между элегантностью обзоров ИИ и суровой реальностью медицинской безопасности служит предостережением.

Для Creati.ai этот инцидент подчеркивает необходимость «безопасности по проекту» (safety by design). Дисклеймеры и защитные ограждения не должны быть второстепенной мыслью или скрытым юридическим текстом; они должны быть неотъемлемой частью пользовательского опыта, особенно когда на кону стоят здоровье и безопасность. Пока эти предупреждения не будут выведены из тени и помещены на передний план, пользователи рискуют принять алгоритмическую догадку за диагноз врача.

Рекомендуемые