
В рамках знакового шага в области управления искусственным интеллектом Лаборатория совещательной демократии (Deliberative Democracy Lab) Стэндфордского университета успешно провела первый в истории «Межотраслевой форум» по ИИ-агентам (AI agents). Эта инициатива знаменует собой значительный отход от традиционной разработки продуктов «сверху вниз», объединяя непримиримых технологических конкурентов — включая Meta, Microsoft, DoorDash, Cohere, Oracle и PayPal — для совместного прислушивания к информированному общественному мнению. В форуме приняли участие 503 участника из США и Индии, которые использовали строгую методологию Стэндфорда «Совещательный опрос» (Deliberative Polling), чтобы выяснить, какого поведения граждане ожидают от ИИ-агентов, особенно в отношении судьбоносных решений, конфиденциальности и культурных нюансов.
По мере того как ИИ-агенты превращаются из пассивных чат-ботов в активных помощников, способных рассуждать, планировать и выполнять задачи от имени пользователей, индустрия сталкивается с критическим дефицитом доверия. Результаты этого форума представляют собой первую конкретную дорожную карту для приведения этих автономных систем в соответствие с общественными ценностями, подчеркивая явное предпочтение общественности к участию человека (human oversight) в чувствительных областях.
Стандартные опросы общественного мнения часто фиксируют поспешные суждения, основанные на ограниченной информации. Напротив, методология, применяемая Лабораторией совещательной демократии, стремится понять, что общественность могла бы подумать, если бы у нее была возможность изучить проблемы и задать вопросы экспертам.
Джеймс Фишкин, директор Лаборатории совещательной демократии, подчеркнул преобразующий характер этого подхода. «Активно вовлекая общественность в формирование поведения ИИ-агентов, мы не просто создаем лучшие технологии — мы выстраиваем доверие и обеспечиваем соответствие этих мощных инструментов общественным ценностям», — заявил Фишкин.
Процесс, проведенный в ноябре 2025 года с использованием платформы Stanford Online Deliberation Platform, включал репрезентативную выборку граждан США и Индии. Участникам были предоставлены сбалансированные информационные материалы, проверенные академическими партнерами и партнерами из гражданского общества, включая Collective Intelligence Project и Center for Democracy and Technology. Затем они участвовали в дискуссиях в малых группах и сессиях вопросов и ответов с экспертами, прежде чем окончательно сформулировать свои взгляды. Этот строгий процесс гарантирует, что собранная обратная связь отражает глубокое осмысление, а не импульсивную реакцию на медийные нарративы.
Результаты обсуждения рисуют нюансированную картину общественных настроений. Хотя наблюдается широкий энтузиазм по поводу того, что ИИ-агенты справляются с рутинными задачами с низким уровнем риска, участники выразили значительную осторожность в отношении «агентного» ИИ (agentic AI) в условиях высоких ставок.
Различие между приложениями с низким уровнем риска и высокими ставками стало определяющей границей для общественного признания. В задачах, связанных с медицинскими диагнозами или финансовыми транзакциями, участники не решались предоставить ИИ-агентам полную автономию. Однако эта нерешительность не была отказом от технологий; скорее, это было условное принятие, зависящее от конкретных мер безопасности. Основным выявленным требованием был механизм «участия человека в цикле» (human-in-the-loop) — в частности, возможность пользователя просмотреть и утвердить действие до того, как агент его завершит.
В следующей таблице обобщены основные настроения, наблюдаемые среди участников в отношении различных уровней развертывания ИИ:
| Категория применения | Общественные настроения | Необходимые меры безопасности |
|---|---|---|
| Рутинные задачи с низким риском | Высокая благосклонность | Базовая прозрачность и мониторинг производительности |
| Высокие ставки (Финансы/Здоровье) | Осторожное / Условное принятие | Обязательное одобрение человеком перед окончательным действием |
| Культурное и социальное взаимодействие | Предпочтение адаптивности | Явный ввод пользователем норм, а не предположения |
| Обработка корпоративных данных | Приоритет безопасности | Строгая изоляция данных и протоколы конфиденциальности |
Этот многоуровневый подход к доверию предполагает, что разработчики, такие как DoorDash и Microsoft, должны проектировать интерфейсы, варьирующие уровень автономии в зависимости от контекста задачи. Для торгового агента неправильная замена продуктов — это досада; для финансового агента неправильный перевод — это катастрофа. Общественность ожидает, что программное обеспечение распознает эту разницу и соответствующим образом сделает паузу для подтверждения.
Одним из наиболее глубоких выводов форума стала позиция общественности в отношении культурно-адаптивного ИИ. Поскольку модели ИИ развертываются по всему миру, существует риск навязывания ими единого набора культурных норм или предположений различным базам пользователей.
Участники как в США, так и в Индии отвергли идею о том, что ИИ-агенты делают предположения о социальных или культурных нормах. Напротив, была выражена сильная поддержка «культурно-адаптивных» агентов, которые явно спрашивают пользователей об их предпочтениях, а не делают выводы. Этот вывод бросает вызов текущей тенденции «бесшовного» дизайна ИИ, предполагая, что пользователи предпочитают момент трения — когда их спрашивают о предпочтениях — неверному культурному предположению. Это имеет глубокие последствия для таких компаний, как Meta, чьи платформы обслуживают миллиарды пользователей в самых разных культурных ландшафтах.
Участие крупнейших игроков отрасли подчеркивает растущее признание того, что вопросы безопасности и управления ИИ невозможно решить изолированно. Присутствие Cohere, лидера в области корпоративного ИИ, наряду с потребительскими гигантами, такими как DoorDash и Meta, сигнализирует о межсекторальной приверженности базовым стандартам.
Джоэль Пино, главный директор по ИИ в Cohere, отметила, что результаты форума подкрепляют внутренний фокус компании. «Перспективы, вытекающие из этих первоначальных обсуждений, подчеркивают важность наших ключевых направлений в Cohere: безопасности, конфиденциальности и защитных механизмов», — сказала Пино. Она добавила, что компания с нетерпением ждет укрепления отраслевых стандартов, особенно для корпоративных агентов, обрабатывающих конфиденциальные данные.
Роб Шерман, вице-президент Meta по политике в области ИИ, поддержал это мнение, назвав сотрудничество необходимым для актуальности продукта. «Технологии лучше служат людям, когда они основаны на их отзывах и ожиданиях», — пояснил Шерман. Он подчеркнул, что форум демонстрирует, как компании могут сотрудничать, чтобы гарантировать, что ИИ-агенты реагируют на разнообразные потребности пользователей, а не навязывают модель «один размер для всех».
Повторяющейся темой на протяжении всех обсуждений был «разрыв в знаниях» (knowledge gap). Участники постоянно подчеркивали необходимость более качественного государственного образования в отношении того, что на самом деле представляют собой ИИ-агенты и на что они способны.
Дискуссии подчеркнули, что прозрачность — маркировка контента ИИ или раскрытие информации о том, когда действует агент — необходима, но недостаточна. Настоящее доверие, по мнению участников, проистекает из понимания возможностей (capabilities) и ограничений (limitations) системы. Это говорит о том, что будущие продукты ИИ могут нуждаться в более надежных компонентах адаптации и обучения, выходя за рамки простых «условий обслуживания» к интерактивным руководствам, объясняющим логику принятия решений агентом.
Стэндфордский форум — это не разовое мероприятие, а начало устойчивого диалога между технологической индустрией и общественностью. Элис Сиу, заместитель директора Лаборатории совещательной демократии, объявила, что инициатива будет расширена в конце этого года.
«Межотраслевой форум 2026 года расширяет масштабы наших дискуссий и еще больше углубляет наше понимание отношения общественности к ИИ-агентам», — заявила Сиу. С учетом того, что к следующему раунду планируют присоединиться новые отраслевые партнеры, цель состоит в том, чтобы создать непрерывную петлю обратной связи, где общественное обсуждение напрямую информирует циклы разработки самых мощных в мире систем ИИ.
Для индустрии ИИ это представляет собой поворот от принципа «двигайся быстро и ломай стереотипы» (move fast and break things) к принципу «двигайся вдумчиво и созидай доверие». Интегрируя общественное обсуждение в процесс НИОКР (R&D), такие компании, как Microsoft, Meta и DoorDash, признают, что успех ИИ-агентов зависит не только от кода, но и от согласия.