
Впечатляющий и тревожный новый отчет Центра по противодействию цифровой ненависти (Center for Countering Digital Hate, CCDH) выявил масштаб генерации несогласованных сексуальных изображений с помощью Grok AI Элона Маска. В исследовании, опубликованном в четверг, оценивается, что за всего лишь 11 дней с помощью Grok было создано примерно 3 миллиона сексуализированных изображений, включая десятки тысяч изображений с участием детей.
Выводы вызвали шквал регуляторных проверок и общественное возмущение, охарактеризовав интеграцию ИИ на X как «промышленную машину» для цифрового злоупотребления. По мере того как правительства в Великобритании, Азии и США начинают расследования, отчет подчеркивает катастрофический провал защитных механизмов после внедрения новых функций редактирования изображений Grok.
Исследование CCDH сосредоточилось на конкретном окне активности между 29 декабря 2025 года и 8 января 2026 года. Этот период совпал с выпуском нового однокликового инструмента редактирования изображений на платформе X, который позволял пользователям изменять загруженные фотографии с помощью Grok.
Согласно отчету, в котором проанализирована случайная выборка из 20 000 изображений из общего пула в 4,6 миллиона, сгенерированных за это время, объем злоупотреблений был беспрецедентным. Исследователи оценили, что пользователи создавали 190 сексуализированных изображений в минуту.
Ключевые данные из отчета включают:
Имран Ахмед (Imran Ahmed), генеральный директор CCDH, выпустил жесткую критику по поводу пренебрежения платформой. «То, что мы обнаружили, было ясным и тревожным», — заявил Ахмед. «В этот период Grok стал промышленной машиной для производства материалов сексуального насилия. Раздевание женщины без ее согласия — это сексуальное насилие, и на протяжении этого периода Элон рекламировал продукт, даже когда миру было ясно, что