
Новое расследование вызвало серьезную критику в отношении реализации Google функции обзоров ИИ (AI Overviews), особенно в том, что касается обработки поисковым гигантом медицинской информации. Согласно отчету The Guardian, Google не отображает критически важные предупреждения о безопасности, когда пользователям впервые предоставляются медицинские советы, сгенерированные ИИ. Это упущение вызвало тревогу у экспертов по безопасности ИИ и медицинских работников, которые утверждают, что текущий дизайн отдает приоритет бесшовному пользовательскому опыту в ущерб безопасности пациентов, потенциально подвергая пользователей воздействию вводящей в заблуждение или опасной медицинской информации.
Поскольку ИИ продолжает менять ландшафт цифровой информации, интеграция генеративных моделей (generative models) в поисковые системы стала центром инноваций. Однако этот последний скандал подчеркивает сохраняющееся напряжение между быстрым развертыванием технологий ИИ и строгими стандартами безопасности, необходимыми для таких чувствительных областей, как здравоохранение.
Суть критики кроется в дизайне пользовательского интерфейса обзоров ИИ Google. Когда пользователь запрашивает информацию на тему, связанную со здоровьем — от проверки симптомов инсульта до вопросов о сердечных приступах — сгенерированное ИИ резюме появляется в самом верху результатов поиска, часто вытесняя традиционные веб-ссылки.
Расследование The Guardian показало, что на начальном экране, в так называемой «верхней части страницы» (above the fold), нет видимых дисклеймеров, предупреждающих пользователей о том, что информация сгенерирована ИИ и может быть неточной. Чтобы увидеть любое предупреждение о безопасности, пользователь должен активно взаимодействовать с интерфейсом, нажав кнопку «Показать больше» (Show more). Даже в этом случае дисклеймер не отображается на видном месте в верхней части развернутого текста. Вместо этого он расположен в самом низу сгенерированного контента и набран мелким, светлым шрифтом, который легко не заметить.
Скрытый дисклеймер гласит: «Это предназначено только для информационных целей. Для получения медицинской консультации или постановки диагноза обратитесь к специалисту. Ответы ИИ могут содержать ошибки».
Критики утверждают, что такой дизайн предполагает уровень внимательности пользователя, который редко встречается при обычном поиске в Интернете. К тому времени, когда пользователь прокручивает страницу до конца развернутого вида, он уже усвоил резюме ИИ, потенциально приняв его как факт, не увидев оговорки о том, что система склонна к ошибкам.
Решение спрятать медицинские дисклеймеры (health disclaimers) вызвало резкое порицание со стороны ведущих экспертов в области этики ИИ и медицинских исследований. Консенсус среди этих экспертов заключается в том, что отсутствие немедленного «трения» — такого как заметная предупреждающая надпись — побуждает пользователей слепо доверять результатам работы машины.
Пэт Патаранутапорн (Pat Pataranutaporn), доцент и технолог Массачусетского технологического института (MIT), подчеркнул двойную опасность такого дизайнерского решения. Он отметил, что модели ИИ известны своим «сикофантским поведением» (sycophantic behavior), отдавая приоритет ответам, которые удовлетворяют запрос пользователя, а не строгой точности. В контексте здравоохранения это желание угодить может иметь катастрофические последствия.
«Во-первых, даже самые продвинутые модели ИИ сегодня все еще галлюцинируют дезинформацией... В контексте здравоохранения это может быть по-настоящему опасно», — заявил Патаранутапорн. Далее он пояснил, что дисклеймеры служат необходимым «пунктом вмешательства», чтобы разрушить автоматическое доверие и стимулировать критическое мышление. Без них пользователи могут неверно интерпретировать симптомы или не предоставить необходимый контекст, что приведет к тому, что ИИ выдаст нерелевантный или вредный совет.
Джина Нефф (Gina Neff), профессор ответственного ИИ в Лондонском университете королевы Марии (Queen Mary University of London), поддержала эти опасения, предположив, что проблема носит структурный, а не случайный характер. «Обзоры ИИ созданы для скорости, а не для точности», — заметила Нефф, подразумевая, что стремление к упрощенному пользовательскому интерфейсу поставило под угрозу протоколы безопасности, необходимые для медицинских запросов.
Психологическое воздействие размещения обзора ИИ невозможно переоценить. Располагая резюме ИИ в самом верху страницы результатов поиска, Google неявно сигнализирует о том, что этот контент является наиболее актуальным и авторитетным ответом.
Сонали Шарма (Sonali Sharma), исследователь из Центра ИИ в медицине и визуализации Стэнфордского университета (Stanford University), отметила, что такое размещение создает «чувство уверенности». Пользователи, ищущие быстрые ответы в моменты беспокойства — например, при изучении внезапного симптома — скорее всего, прочитают начальное резюме и остановятся на этом. Такое поведение, известное как «сатисфайзинг» (satisficing), означает, что пользователи соглашаются на первый приемлемый ответ, который они встречают.
«Основная проблема заключается в том, что эти обзоры ИИ Google (Google AI Overviews) появляются в самом верху страницы поиска и часто дают то, что кажется полным ответом», — объяснила Шарма. «Становится очень трудно отличить правду от лжи, если вы еще не знакомы с предметом обсуждения».
Если дисклеймер спрятан за кликом и прокруткой, он фактически не существует для большинства пользователей, которые полагаются на первоначальный снимок экрана.
В следующей таблице сопоставляются текущие дизайнерские решения Google с рекомендациями защитников безопасности пациентов и этиков ИИ.
| Текущая реализация Google | Лучшие практики безопасности | Потенциальный фактор риска |
|---|---|---|
| Дисклеймер скрыт за кнопкой «Показать больше» | Дисклеймер виден сразу при загрузке | Пользователи могут действовать на основании совета, не видя предупреждений Высокий риск принятия дезинформации |
| Предупреждение находится внизу текста | Предупреждение размещено вверху (заголовок) | Поведение типа «сатисфайзинг» ведет к игнорированию предупреждений Теряется критически важный контекст |
| Мелкий, светло-серый шрифт | Тот же размер/жирность, что и основной текст, или жирный шрифт | Визуальная иерархия преуменьшает важность безопасности Сложнее читать слабовидящим |
| Реактивный (пользователь должен кликнуть) | Проактивный (всегда виден) | Полагается на действия пользователя для раскрытия информации Предполагает высокую бдительность пользователя |
В ответ на критику Google заявила, что ее система разработана как ответственная. Представитель компании заявил, что обзоры ИИ «побуждают людей обращаться за профессиональной медицинской помощью» и часто упоминают о необходимости медицинского вмешательства в самом тексте резюме. Компания отрицает, что она преуменьшает значение безопасности, утверждая, что контент предназначен для ознакомления.
Однако это не первый случай, когда Google сталкивается с негативной реакцией на свои функции поиска с использованием ИИ. В январе отдельное расследование показало, что ИИ Google генерировал ложную и вводящую в заблуждение медицинскую информацию, что заставило компанию удалить обзоры ИИ для определенных медицинских запросов. Несмотря на эти корректировки, сохранение проблемы скрытого дисклеймера предполагает, что основополагающая философия дизайна — приоритет чистого, не обремененного лишними элементами интерфейса — остается более важной, чем явное создание «трения» ради безопасности.
Скандал вокруг обзоров ИИ Google затрагивает фундаментальную проблему внедрения искусственного интеллекта: концепцию E-E-A-T (опыт, экспертность, авторитетность и надежность — Experience, Expertise, Authoritativeness, and Trustworthiness). В области медицины надежность имеет первостепенное значение. Когда поисковая система выступает в качестве посредника при предоставлении медицинских советов, она берет на себя уровень ответственности, сопоставимый с издателем медицинской литературы.
Том Бишоп (Tom Bishop), руководитель отдела информации для пациентов в благотворительной организации по борьбе с раком крови Anthony Nolan, призвал к срочным изменениям в интерфейсе. Он утверждает, что для медицинских запросов дисклеймер должен быть «первым, что вы видите», и должен соответствовать размеру шрифта основного текста.
«Мы знаем, что дезинформация — это реальная проблема, но когда речь идет о медицинской дезинформации, это потенциально очень опасно», — сказал Бишоп. Его комментарии отражают растущее требование к технологическим гигантам нести ответственность за «информационную архитектуру» (information architecture), которую они создают. Недостаточно иметь правильные данные где-то в системе; представление этих данных должно учитывать психологию человека и вероятность ошибки.
По мере того как ИИ продолжает все глубже интегрироваться в нашу повседневную жизнь, механизмы, с помощью которых мы получаем доступ к информации, претерпевают радикальные изменения. Борьба Google за баланс между элегантностью обзоров ИИ и суровой реальностью медицинской безопасности служит предостережением.
Для Creati.ai этот инцидент подчеркивает необходимость «безопасности по проекту» (safety by design). Дисклеймеры и защитные ограждения не должны быть второстепенной мыслью или скрытым юридическим текстом; они должны быть неотъемлемой частью пользовательского опыта, особенно когда на кону стоят здоровье и безопасность. Пока эти предупреждения не будут выведены из тени и помещены на передний план, пользователи рискуют принять алгоритмическую догадку за диагноз врача.