AI News

Stanford Leads Unprecedented Cross-Industry Forum to Shape the Future of AI Agents

В рамках знакового шага в области управления искусственным интеллектом Лаборатория совещательной демократии (Deliberative Democracy Lab) Стэндфордского университета успешно провела первый в истории «Межотраслевой форум» по ИИ-агентам (AI agents). Эта инициатива знаменует собой значительный отход от традиционной разработки продуктов «сверху вниз», объединяя непримиримых технологических конкурентов — включая Meta, Microsoft, DoorDash, Cohere, Oracle и PayPal — для совместного прислушивания к информированному общественному мнению. В форуме приняли участие 503 участника из США и Индии, которые использовали строгую методологию Стэндфорда «Совещательный опрос» (Deliberative Polling), чтобы выяснить, какого поведения граждане ожидают от ИИ-агентов, особенно в отношении судьбоносных решений, конфиденциальности и культурных нюансов.

По мере того как ИИ-агенты превращаются из пассивных чат-ботов в активных помощников, способных рассуждать, планировать и выполнять задачи от имени пользователей, индустрия сталкивается с критическим дефицитом доверия. Результаты этого форума представляют собой первую конкретную дорожную карту для приведения этих автономных систем в соответствие с общественными ценностями, подчеркивая явное предпочтение общественности к участию человека (human oversight) в чувствительных областях.

Beyond Surveys: The Power of Deliberative Polling

Стандартные опросы общественного мнения часто фиксируют поспешные суждения, основанные на ограниченной информации. Напротив, методология, применяемая Лабораторией совещательной демократии, стремится понять, что общественность могла бы подумать, если бы у нее была возможность изучить проблемы и задать вопросы экспертам.

Джеймс Фишкин, директор Лаборатории совещательной демократии, подчеркнул преобразующий характер этого подхода. «Активно вовлекая общественность в формирование поведения ИИ-агентов, мы не просто создаем лучшие технологии — мы выстраиваем доверие и обеспечиваем соответствие этих мощных инструментов общественным ценностям», — заявил Фишкин.

Процесс, проведенный в ноябре 2025 года с использованием платформы Stanford Online Deliberation Platform, включал репрезентативную выборку граждан США и Индии. Участникам были предоставлены сбалансированные информационные материалы, проверенные академическими партнерами и партнерами из гражданского общества, включая Collective Intelligence Project и Center for Democracy and Technology. Затем они участвовали в дискуссиях в малых группах и сессиях вопросов и ответов с экспертами, прежде чем окончательно сформулировать свои взгляды. Этот строгий процесс гарантирует, что собранная обратная связь отражает глубокое осмысление, а не импульсивную реакцию на медийные нарративы.

Key Findings: The Demand for "Human-in-the-Loop"

Результаты обсуждения рисуют нюансированную картину общественных настроений. Хотя наблюдается широкий энтузиазм по поводу того, что ИИ-агенты справляются с рутинными задачами с низким уровнем риска, участники выразили значительную осторожность в отношении «агентного» ИИ (agentic AI) в условиях высоких ставок.

Различие между приложениями с низким уровнем риска и высокими ставками стало определяющей границей для общественного признания. В задачах, связанных с медицинскими диагнозами или финансовыми транзакциями, участники не решались предоставить ИИ-агентам полную автономию. Однако эта нерешительность не была отказом от технологий; скорее, это было условное принятие, зависящее от конкретных мер безопасности. Основным выявленным требованием был механизм «участия человека в цикле» (human-in-the-loop) — в частности, возможность пользователя просмотреть и утвердить действие до того, как агент его завершит.

Public Sentiment on AI Agent Deployment

В следующей таблице обобщены основные настроения, наблюдаемые среди участников в отношении различных уровней развертывания ИИ:

Категория применения Общественные настроения Необходимые меры безопасности
Рутинные задачи с низким риском Высокая благосклонность Базовая прозрачность и мониторинг производительности
Высокие ставки (Финансы/Здоровье) Осторожное / Условное принятие Обязательное одобрение человеком перед окончательным действием
Культурное и социальное взаимодействие Предпочтение адаптивности Явный ввод пользователем норм, а не предположения
Обработка корпоративных данных Приоритет безопасности Строгая изоляция данных и протоколы конфиденциальности

Этот многоуровневый подход к доверию предполагает, что разработчики, такие как DoorDash и Microsoft, должны проектировать интерфейсы, варьирующие уровень автономии в зависимости от контекста задачи. Для торгового агента неправильная замена продуктов — это досада; для финансового агента неправильный перевод — это катастрофа. Общественность ожидает, что программное обеспечение распознает эту разницу и соответствующим образом сделает паузу для подтверждения.

Cultural Sensitivity and the "Assumption Gap"

Одним из наиболее глубоких выводов форума стала позиция общественности в отношении культурно-адаптивного ИИ. Поскольку модели ИИ развертываются по всему миру, существует риск навязывания ими единого набора культурных норм или предположений различным базам пользователей.

Участники как в США, так и в Индии отвергли идею о том, что ИИ-агенты делают предположения о социальных или культурных нормах. Напротив, была выражена сильная поддержка «культурно-адаптивных» агентов, которые явно спрашивают пользователей об их предпочтениях, а не делают выводы. Этот вывод бросает вызов текущей тенденции «бесшовного» дизайна ИИ, предполагая, что пользователи предпочитают момент трения — когда их спрашивают о предпочтениях — неверному культурному предположению. Это имеет глубокие последствия для таких компаний, как Meta, чьи платформы обслуживают миллиарды пользователей в самых разных культурных ландшафтах.

Industry Competitors Unite for Standards

Участие крупнейших игроков отрасли подчеркивает растущее признание того, что вопросы безопасности и управления ИИ невозможно решить изолированно. Присутствие Cohere, лидера в области корпоративного ИИ, наряду с потребительскими гигантами, такими как DoorDash и Meta, сигнализирует о межсекторальной приверженности базовым стандартам.

Джоэль Пино, главный директор по ИИ в Cohere, отметила, что результаты форума подкрепляют внутренний фокус компании. «Перспективы, вытекающие из этих первоначальных обсуждений, подчеркивают важность наших ключевых направлений в Cohere: безопасности, конфиденциальности и защитных механизмов», — сказала Пино. Она добавила, что компания с нетерпением ждет укрепления отраслевых стандартов, особенно для корпоративных агентов, обрабатывающих конфиденциальные данные.

Роб Шерман, вице-президент Meta по политике в области ИИ, поддержал это мнение, назвав сотрудничество необходимым для актуальности продукта. «Технологии лучше служат людям, когда они основаны на их отзывах и ожиданиях», — пояснил Шерман. Он подчеркнул, что форум демонстрирует, как компании могут сотрудничать, чтобы гарантировать, что ИИ-агенты реагируют на разнообразные потребности пользователей, а не навязывают модель «один размер для всех».

Education as a Pillar of Trust

Повторяющейся темой на протяжении всех обсуждений был «разрыв в знаниях» (knowledge gap). Участники постоянно подчеркивали необходимость более качественного государственного образования в отношении того, что на самом деле представляют собой ИИ-агенты и на что они способны.

Дискуссии подчеркнули, что прозрачность — маркировка контента ИИ или раскрытие информации о том, когда действует агент — необходима, но недостаточна. Настоящее доверие, по мнению участников, проистекает из понимания возможностей (capabilities) и ограничений (limitations) системы. Это говорит о том, что будущие продукты ИИ могут нуждаться в более надежных компонентах адаптации и обучения, выходя за рамки простых «условий обслуживания» к интерактивным руководствам, объясняющим логику принятия решений агентом.

The Road Ahead: 2026 and Beyond

Стэндфордский форум — это не разовое мероприятие, а начало устойчивого диалога между технологической индустрией и общественностью. Элис Сиу, заместитель директора Лаборатории совещательной демократии, объявила, что инициатива будет расширена в конце этого года.

«Межотраслевой форум 2026 года расширяет масштабы наших дискуссий и еще больше углубляет наше понимание отношения общественности к ИИ-агентам», — заявила Сиу. С учетом того, что к следующему раунду планируют присоединиться новые отраслевые партнеры, цель состоит в том, чтобы создать непрерывную петлю обратной связи, где общественное обсуждение напрямую информирует циклы разработки самых мощных в мире систем ИИ.

Для индустрии ИИ это представляет собой поворот от принципа «двигайся быстро и ломай стереотипы» (move fast and break things) к принципу «двигайся вдумчиво и созидай доверие». Интегрируя общественное обсуждение в процесс НИОКР (R&D), такие компании, как Microsoft, Meta и DoorDash, признают, что успех ИИ-агентов зависит не только от кода, но и от согласия.

Рекомендуемые