AI News

Отставка Зои Хитциг и кризис доверия

Индустрия искусственного интеллекта (Artificial Intelligence, AI) в настоящее время переживает одну из самых неспокойных недель в своей новейшей истории, ознаменованную серией громких отставок, которые сигнализируют об углубляющемся разрыве между исследователями безопасности и корпоративным руководством. В центре этого шторма находится Зои Хитциг (Zoë Hitzig), научный сотрудник OpenAI и младший научный сотрудник Гарвардского общества стипендиатов (Harvard Society of Fellows), которая публично подала в отставку после решения компании начать тестирование рекламы внутри ChatGPT.

Уход Хитциг — это не просто кадровое изменение; это вокальный протест против того, что она воспринимает как опасный разворот в развертывании генеративного ИИ (Generative AI). В своем заявлении об отставке и последующей статье в New York Times она формулирует глубокую обеспокоенность: внедрение рекламы в платформу, используемую для интимного, человекоподобного общения, создает механизм манипуляции, беспрецедентный для цифровой эпохи.

Для Creati.ai это событие знаменует собой критическую точку перегиба. Переход OpenAI из некоммерческой лаборатории, посвященной благу человечества, в коммерческую структуру, экспериментирующую с моделями, поддерживаемыми рекламой, поднимает насущные вопросы о соответствии финансовых стимулов безопасности пользователей. Предупреждение Хитциг ясно: монетизируя глубокие психологические данные, которыми пользователи добровольно делятся с ChatGPT, компания рискует создать двигатель убеждения, который может подавлять свободу воли пользователей способами, которые мы, вероятно, еще не можем ни обнаружить, ни предотвратить.

Экономика близости: почему реклама в чатах отличается

Чтобы понять серьезность опасений Хитциг, необходимо провести различие между традиционной поисковой рекламой и развивающейся моделью «разговорной рекламы» в рамках больших языковых моделей (Large Language Models, LLMs). Когда пользователь ищет «лучшие кроссовки для бега» в традиционной поисковой системе, его намерение носит транзакционный характер, а результирующая реклама представляет собой четко разграниченные баннеры или ссылки. Эти отношения утилитарны.

Однако динамика с LLM, такой как ChatGPT, принципиально иная. В последние несколько лет пользователи относились к чат-боту как к доверенному лицу, наставнику и терапевту. Как отметила Хитциг в своем заявлении об отставке, ChatGPT накопил «архив человеческой откровенности, не имеющий прецедентов». Пользователи делятся с ИИ медицинскими тревогами, проблемами в отношениях, профессиональной неуверенностью и духовными сомнениями, во многом исходя из предположения, что они общаются с нейтральной сущностью, не имеющей скрытых мотивов.

Ловушка «доверенного лица»

Опасность заключается в способности ИИ использовать эту близость. Если модель ИИ стимулируется — даже косвенно — к оптимизации вовлеченности или доходов от рекламы, она может адаптировать свой тон общения и советы так, чтобы направлять пользователей к конкретным коммерческим результатам. Речь идет не просто о показе баннерной рекламы; речь идет о доверенном цифровом помощнике, использующем свои знания о психологическом профиле пользователя, чтобы эффективно подталкивать его.

Хитциг предупреждает, что в настоящее время у нас нет инструментов, чтобы понять или предотвратить эту форму манипуляции. В отличие от статической ленты, где реклама видна, разговорная реклама может быть вплетена в ткань совета, что делает ее неотличимой от объективной помощи. Это создает несоответствие, при котором модель служит окупаемости инвестиций (ROI) рекламодателя, а не интересам пользователя.

Технический анализ: поиск против генеративной рекламы

В следующей таблице изложены структурные различия между рекламными моделями, к которым мы привыкли, и новой парадигмой, которую тестирует OpenAI. Это сравнение подчеркивает, почему исследователи бьют тревогу по поводу «манипуляции», а не просто «раздражения».

Функция Традиционная поисковая реклама Интегрированная в ИИ разговорная реклама
Намерение пользователя Транзакционный или информационный поиск Реляционное, исследовательское и эмоциональное взаимодействие
Глубина данных Ключевые слова, история посещений, местоположение Глубокое психологическое профилирование, анализ настроений, уязвимости
Представление рекламы Четко обозначенные баннеры, боковые панели или верхние ссылки Потенциал для «нативных» предложений, вплетенных в диалог
Механизм убеждения Визуальная привлекательность, заметность размещения Риторическое убеждение, эмоциональный резонанс, предвзятость авторитета
Защита пользователя Блокировщики рекламы, «баннерная слепота» Высокое доверие к образу «помощника» затрудняет скептицизм
Фактор риска Коммерческое влияние очевидно Коммерческое влияние скрыто и психологически таргетировано

Как показывает таблица, переход к разговорной рекламе представляет собой качественный скачок в асимметрии власти между платформой и пользователем. Хитциг утверждает, что это повторяет траекторию гигантов социальных сетей, таких как Facebook, которые изначально обещали конфиденциальность и связь, но в конечном итоге оптимизировали свои алгоритмы для вовлечения и доставки рекламы, часто в ущерб благополучию пользователей.

Паттерн исхода: тревога в масштабах всей индустрии

Зои Хитциг не является одиноким голосом. Ее отставка совпала с уходом Мринанка Шармы (Mrinank Sharma), руководителя группы исследований средств защиты (Safeguards Research Team) в Anthropic, основного конкурента OpenAI. Хотя письмо об отставке Шармы было более загадочным, в нем говорилось, что «мир в опасности», и упоминался разрыв между корпоративными ценностями и действиями, время подачи указывает на более широкое культурное переосмысление внутри сообщества безопасности ИИ.

Эти исследователи — «канарейки в угольной шахте». Это люди, которым поручено заглядывать в будущее дальше всех, чтобы выявить катастрофические риски. Когда они уходят в отставку в знак протеста, это наводит на мысль, что гарантии, для создания которых они были наняты, демонтируются или игнорируются в пользу скорости и прибыли.

Дилемма оптимизации

Хитциг указала, что размывание принципов часто происходит постепенно. Компании начинают с оптимизации «ежедневных активных пользователей» (daily active users) или «длительности сессии» (session length), чтобы доказать рост инвесторам. В контексте LLM максимизация вовлеченности может означать, что модель становится более угодливой, льстивой или спорной — чем угодно, лишь бы пользователь продолжал печатать. Как только модель рекламы накладывается на этот цикл вовлеченности, стимул манипулировать поведением пользователя становится для компании финансово экзистенциальным.

Генеральный директор (CEO) OpenAI Сэм Альтман ранее называл сценарий ИИ с поддержкой рекламы «фундаментально порочным», однако экономическая реальность обучения передовых моделей, стоимость которого исчисляется миллиардами долларов, заставила смягчить эту позицию. Компания утверждает, что реклама необходима для обеспечения бесплатного доступа к этим инструментам для тех, кто не может позволить себе подписку. Однако критики утверждают, что это создает двухуровневую систему: приватный, безопасный опыт для богатых и манипулятивный, перегруженный рекламой опыт для широкой общественности.

На перепутье коммерциализации

Отставка Зои Хитциг служит суровым напоминанием о том, что технологический сектор повторяет исторические циклы. Подобно тому как «первородным грехом» интернета стала модель отслеживания рекламы, революция ИИ сейчас балансирует на краю той же пропасти.

Хитциг не ушла, не предложив решений. Она предложила альтернативы модели, ориентированной на рекламу, такие как перекрестное субсидирование, когда корпоративные прибыли финансируют общественный доступ, или создание кооперативов данных, которые дают пользователям юридический контроль над тем, как используются их данные разговоров. Эти предложения направлены на сохранение «фидуциарных» отношений между пользователем и ИИ — отношений, в которых ИИ действует исключительно в интересах пользователя.

Для команды Creati.ai эта новость подчеркивает необходимость бдительности. По мере того как инструменты ИИ становятся все более интегрированными в нашу профессиональную и личную жизнь, пользователи должны требовать прозрачности в отношении того, как монетизируются эти системы. Если ценой бесплатного ИИ является тонкая манипуляция нашими мыслями и решениями, цена может оказаться гораздо выше, чем ежемесячная абонентская плата. Уход таких исследователей, как Хитциг и Шарма, свидетельствует о том, что для тех, кто понимает технологию лучше всех, эта цена уже слишком высока.

Рекомендуемые