
Цифровое пространство готовится к сейсмическому сдвигу. В течение многих лет пользователи соцсетей научились замечать грубые следы автоматизированных операций влияния: идентичные твиты, повторённые тысячи раз, пустые фотографии профиля и жёсткий, роботизированный синтаксис. Но новое предупреждение, опубликованное исследователями в журнале Science, говорит о том, что эти дни позади. Мы входим в эпоху «злонамеренных роев ИИ» (malicious AI swarms) — сетей сложных персон, созданных на основе Больших языковых моделей (Large Language Model, LLM), способных имитировать поведение человека с ужасающей точностью.
В Creati.ai мы давно отслеживаем пересечение генеративного ИИ (Generative AI) и цифровой культуры. Последние выводы указывают на то, что перед нами уже не простые спам-боты, а скоординированные армии AI-агентов, которые умеют думать, адаптироваться и убеждать значительно лучше, чем среднестатистический человек.
Исследование, возглавляемое коалицией экспертов, в которую вошли Дэниел Шрёдер (Daniel Schroeder) из SINTEF Digital и Андреа Барончелли (Andrea Baronchelli) из City St George’s, University of London, описывает фундаментальное улучшение в цифровой войне. В отличие от традиционных ботнетов, которые полагаются на объём и повторение, эти рои следующего поколения используют силу продвинутых Больших языковых моделей для создания «скоординированных сообществ».
Эти AI-агенты обладают различными личностями, памятью и стилями письма. Они не просто копируют и вставляют центральное сообщение; они импровизируют. Если политическому операционному нужно продвинуть нарратив, рой не просто заспамит лозунг. Один агент может опубликовать трогательный личный анекдот в поддержку точки зрения, другой — предложить «основанный на данных» логический аргумент, а третий сыграет роль скептика, которого в итоге «убеждают» другие в треде.
Опасность заключается в способности роя сохранять постоянство и контекст. Эти агенты могут отслеживать разговоры в течение дней или недель, вспоминая предыдущие взаимодействия, чтобы выстраивать доверие с реальными пользователями. Они функционируют скорее как коллективный ансамбль импровизации, реагирующий на человеческие эмоции и контраргументы в реальном времени. Эта динамическая способность делает их практически неотличимыми от подлинных человеческих сообществ при использовании текущих методов обнаружения.
Возможно, самая тревожная статистика, появившаяся в недавних экспериментах, — это сама убедительная сила этих систем. Исследования, цитируемые в статье и в сопутствующих экспериментах, показывают, что чат-боты на базе ИИ могут быть в 3–6 раз более убедительны, чем люди, когда пытаются изменить мнение.
Этот «разрыв в убедительности» проистекает из доступа ИИ к огромным данным и из отсутствия когнитивной усталости. Пока человеческий оппонент может утомиться, эмоционально взбудоражиться или забыть важный факт, AI-агент мгновенно получает идеальный контрпример, специально подстроенный под демографический и психологический профиль своей цели.
Основная цель этих роев — сфабриковать то, что исследователи называют синтетическим консенсусом. Люди эволюционно настроены доверять мнению большинства — «мудрости толпы». Когда мы видим десятки, казалось бы, независимых людей, соглашающихся по какому-то вопросу, мы инстинктивно предполагаем, что в утверждении есть правда.
Рои ИИ захватывают этот когнитивный ярлык. Затопляя раздел комментариев разнообразными, расходящимися, но сходящимися голосами, они создают мираж общественной поддержки. Это вводит в заблуждение не только отдельных людей; это искажает воспринимаемые социальные нормы целых платформ, заставляя маргинальные экстремистские взгляды выглядеть мейнстримом или подавляя легитимное несогласие, утопая его в фабрикованном шуме.
Угроза выходит за рамки политической манипуляции и переходит в область прямого цифрового репрессирования. Исследование подчёркивает потенциал «синтетических преследований», когда рои используются для того, чтобы заставить молчать конкретные цели — журналистов, активистов или инакомыслящих.
В таком сценарии цель подвергается не просто потоку оскорблений. Ей может грозить шквал «concern trolling», изощрённого газлайтинга и угроз, ссылающихся на личную историю — всё это генерируется автоматически в масштабах, с которыми ни одна человеческая тролль-ферма не справится. Психологическое бремя, связанное с противостоянием тысячам враждебных, умных и неумолимых «людей», рассчитано на то, чтобы заставить цели полностью уйти из публичной сферы.
Чтобы понять масштаб этой эволюции, полезно сопоставить этих новых агентов с автоматизированными системами, к которым мы привыкли.
Таблица: Эволюция автоматизированного влияния
| Характеристика | Традиционные ботнеты | Рои ИИ следующего поколения |
|---|---|---|
| Ключевая технология | Простые скрипты / заранее написанный текст | Большие языковые модели (LLMs) |
| Поведение | Повторяющийся, массовый спам | Адаптивный, учитывающий контекст диалог |
| Идентичность | Обычные, часто с пустыми фотографиями профили | Отличающиеся персонажи с биографиями / памятью |
| Координация | Централизованное «копировать-вставить» | Децентрализованная «импровизация на основе миссии» |
| Сложность обнаружения | Низкая (поиск шаблонов) | Высокая (требуется поведенческий анализ) |
| Основная цель | Увеличение видимости (лайки/ретвиты) | Создание «синтетического консенсуса» и доверия |
Исследователи утверждают, что эпоха, когда достаточно было полагаться на платформы в решении «забанить ботов», подходит к концу. Поскольку эти рои действуют очень похоже на людей, агрессивная фильтрация неизбежно будет заглушать реальных пользователей и вызывать негативную реакцию. Вместо этого исследование предлагает стратегию защиты, основанную на проверке происхождения и повышении стоимости манипуляций.
Если мы не можем безошибочно обнаружить каждого AI-агента, мы должны сделать эксплуатацию их в масштабе слишком дорогой. Это может включать учетные данные «proof-of-personhood» (proof-of-personhood) для аккаунтов с большим охватом или криптографическую маркировку контента. Кроме того, исследователи предлагают создание «Обсерватории влияния ИИ» (AI Influence Observatory) — глобальной распределённой сети для отслеживания и анализа скоординированных шаблонов поведения, а не отдельных постов.
В Creati.ai мы полагаем, что это представляет критическую точку поворота. Инструменты создания становятся инструментами манипуляции. По мере того как рои ИИ начинают стирать грани между подлинным общественным дискурсом и алгоритмическим театром, способность отличать правду от «синтетического консенсуса» может стать самым ценным навыком цифровой эпохи. Задача для социальных сетей больше не ограничивается модерацией; это сохранение самой человеческой реальности.