
На веранде с глиняным полом в сельской Индии Монсуми Мурму балансирует ноутбуком на коленях, пытаясь поймать стабильный сигнал мобильной связи. Для случайного наблюдателя она олицетворяет обещание цифровой экономики, пришедшей в Глобальный Юг — молодая женщина, получившая возможности благодаря удаленной технологической работе. Но реальность на ее экране гораздо мрaчнее. Ежедневно в течение многих часов Мурму и тысячи других женщин по всей Индии служат «сеткой безопасности» для глобальных систем искусственного интеллекта, очищая наборы данных для обучения от самых токсичных элементов.
Новое расследование выявило тяжелые психологические последствия, которые эта работа наносит преимущественно женской рабочей силе. Этим сотрудникам поручено просматривать тысячи изображений и видео с кадрами крайнего насилия, сексуального насилия и жестокости, чтобы «научить» модели ИИ, что именно нужно отфильтровывать. В результате рабочие сообщают о глубоких кризисах в области психического здоровья. Определяющим симптомом является не истерия, а пугающая диссоциация. Как описывает Мурму, ужас со временем перестает шокировать. «В конце концов, — говорит она, — ты чувствуешь пустоту».
Феномен «ощущения пустоты», описываемый такими работницами, как Мурму, указывает на специфический механизм психологической защиты, известный как эмоциональное онемение. Эта диссоциация является отличительным признаком посттравматического стрессового расстройства (ПТСР), однако в контексте разметки данных для ИИ работодатели часто ошибочно принимают ее за устойчивость или адаптацию.
Рабочие сообщают, что первые недели работы — самые трудные, они часто сопровождаются физическими реакциями: тошнотой, плачем и неспособностью принимать пищу. Однако по мере продолжения воздействия разум начинает отключать эмоциональные реакции, чтобы выжить под натиском оскорбительного контента. «К концу вы больше не чувствуете беспокойства — вы чувствуете пустоту», — объясняет Мурму. Тем не менее, травма всплывает в тихие часы. «Все еще бывают ночи, когда сны возвращаются. Именно тогда понимаешь, что работа что-то с тобой сделала».
Эти отложенные психологические последствия особенно опасны, так как они маскируют немедленную травму. Социолог Милагрос Мичели, возглавляющая проект Data Workers' Inquiry, утверждает, что неспособность индустрии распознать этот нюанс катастрофична. «Могут быть модераторы, которым удается избежать психологического вреда, но я еще не видела доказательств этого», — заявляет Мичели. Она классифицирует модерацию контента как «опасную работу, сравнимую с любой смертельно опасной отраслью» — классификация, требующая строгих стандартов безопасности, которые в настоящее время отсутствуют в аутсорсинговых центрах Индии.
Расследование включало интервью с восемью крупными фирмами по аннотированию данных и модерации контента, работающими в Индии. Результаты обнажают резкий разрыв между высокотехнологичным имиджем индустрии ИИ и архаичными условиями труда в ее цепочке поставок.
Корпоративная реакция на травмы работников
| Тип корпоративного ответа | Частота | Предоставленное обоснование |
|---|---|---|
| Отсутствие психологической поддержки | 6 из 8 фирм | Заявили, что работа «недостаточно требовательна» для обеспечения ухода |
| Доступна ограниченная поддержка | 2 из 8 фирм | Поддержка доступна только по запросу; ответственность за самоидентификацию лежит на работнике |
| Проактивный мониторинг | 0 из 8 фирм | Нет |
Как показано в таблице выше, большинство фирм проигнорировали серьезность работы. Вадалия, отраслевой комментатор, отмечает, что даже когда поддержка существует, бремя поиска помощи полностью перекладывается на работника. «Это игнорирует реальность того, что многие специалисты по данным, особенно выходцы из отдаленных или маргинализированных слоев общества, могут даже не обладать языком, чтобы сформулировать то, что они испытывают», — объясняет Вадалия.
Это отсутствие институциональной поддержки усугубляется культурным и экономическим контекстом. Для многих женщин в сельской Индии эта работа является редким экономическим спасательным кругом. Страх потери этого дохода часто заставляет их молчать, вынуждая переносить психологическое напряжение без жалоб. Результатом является рабочая сила, которая медленно разрушается изнутри, жертвуя своим психическим благополучием ради обеспечения «безопасности» ИИ-продуктов, используемых потребителями за тысячи миль.
Чтобы понять глубину этой проблемы, необходимо рассмотреть роль обучения с подкреплением на основе обратной связи от человека (RLHF). Этот процесс является двигателем современного генеративного ИИ. Прежде чем модель будет выпущена для публики, ее нужно обучить распознавать и отклонять запросы на вредоносный контент. Это обучение не происходит по волшебству; оно требует, чтобы люди просматривали, маркировали и классифицировали худший контент в интернете, чтобы ИИ знал, чего следует избегать.
Конкретные задачи, поручаемые модераторам, включают:
Исследования, опубликованные в декабре прошлого года, показывают, что эта постоянная бдительность вызывает стойкие когнические изменения. У рабочих развиваются повышенная тревожность, навязчивые мысли и нарушения сна. «Пустота» — это всего лишь попытка мозга обработать не поддающийся обработке объем ужаса. Исследование показало, что даже в условиях, где существовали некоторые меры вмешательства на рабочем месте, сохранялся значительный уровень вторичной травмы, что свидетельствует о фундаментальной неадекватности текущих моделей поддержки психического здоровья масштабам проблемы.
Положение индийских женщин-модераторов контента поднимает неудобные вопросы об этике глобальной цепочки поставок ИИ. В то время как гиганты Кремниевой долины празднуют «магию» и «безопасность» своих последних больших языковых моделей (LLM), грязная, травмирующая работа, необходимая для очистки этих моделей, передается на аутсорсинг в Глобальный Юг. Это создает двухуровневую систему: высокооплачиваемые инженеры на Западе, которые создают архитектуру, и низкооплачиваемые, травмированные рабочие на Востоке, которые чистят «сточные воды» озер данных.
Диспропорция в экосистеме ИИ
| Особенность | Инженеры ИИ (Глобальный Север) | Модераторы данных (Глобальный Юг) |
|---|---|---|
| Основной результат | Код, алгоритмы, архитектура | Метки, аннотации, фильтры безопасности |
| Рабочая среда | Высокотехнологичные кампусы, гибкий удаленный график | Сельские дома, переполненные центры, нестабильное соединение |
| Психологический риск | Низкий (выгорание, стресс) | Экстремальный (ПТСР, диссоциация, вторичная травма) |
| Компенсация | Высокие зарплаты, акции, льготы | Почасовая оплата, часто ниже прожиточного минимума |
Этот разрыв — не просто экономическая проблема; это проблема прав человека. Модель аутсорсинга фактически экспортирует психологический ущерб от разработки ИИ населению с наименьшим доступом к психиатрической помощи. Когда компании заявляют, что их ИИ «безопасен», они редко раскрывают человеческую цену, заплаченную за достижение этой безопасности.
«Пустота», которую чувствуют Монсуми Мурму и ее коллеги, является тревожным сигналом для всей индустрии. По мере того как модели ИИ становятся больше, а спрос на разметку данных растет, зависимость от модераторов-людей будет только увеличиваться. Если индустрия продолжит относиться к этим работникам как к расходным материалам, а не как к важным участникам процесса, фундамент экономики ИИ по-прежнему будет строиться на человеческих страданиях.
Эксперты, такие как Мичели, призывают к полному пересмотру того, как классифицируется и оплачивается работа с данными. Это включает в себя:
Для Creati.ai послание ясно: будущее искусственного интеллекта невозможно отделить от благополучия людей, которые его создают. Инновации, которые полагаются на «пустоту» своих работников — это не прогресс, а эксплуатация. По мере развития индустрии она должна решить, пойдет ли она вперед вместе со своими работниками или оставит их позади во тьме.