AI News

Эра «синтетического консенсуса» (synthetic consensus): как рои ИИ следующего поколения переписывают правила онлайн-влияния

Цифровое пространство готовится к сейсмическому сдвигу. В течение многих лет пользователи соцсетей научились замечать грубые следы автоматизированных операций влияния: идентичные твиты, повторённые тысячи раз, пустые фотографии профиля и жёсткий, роботизированный синтаксис. Но новое предупреждение, опубликованное исследователями в журнале Science, говорит о том, что эти дни позади. Мы входим в эпоху «злонамеренных роев ИИ» (malicious AI swarms) — сетей сложных персон, созданных на основе Больших языковых моделей (Large Language Model, LLM), способных имитировать поведение человека с ужасающей точностью.

В Creati.ai мы давно отслеживаем пересечение генеративного ИИ (Generative AI) и цифровой культуры. Последние выводы указывают на то, что перед нами уже не простые спам-боты, а скоординированные армии AI-агентов, которые умеют думать, адаптироваться и убеждать значительно лучше, чем среднестатистический человек.

Анатомия роя

Исследование, возглавляемое коалицией экспертов, в которую вошли Дэниел Шрёдер (Daniel Schroeder) из SINTEF Digital и Андреа Барончелли (Andrea Baronchelli) из City St George’s, University of London, описывает фундаментальное улучшение в цифровой войне. В отличие от традиционных ботнетов, которые полагаются на объём и повторение, эти рои следующего поколения используют силу продвинутых Больших языковых моделей для создания «скоординированных сообществ».

Эти AI-агенты обладают различными личностями, памятью и стилями письма. Они не просто копируют и вставляют центральное сообщение; они импровизируют. Если политическому операционному нужно продвинуть нарратив, рой не просто заспамит лозунг. Один агент может опубликовать трогательный личный анекдот в поддержку точки зрения, другой — предложить «основанный на данных» логический аргумент, а третий сыграет роль скептика, которого в итоге «убеждают» другие в треде.

Совместное «призрачное» написание и адаптация

Опасность заключается в способности роя сохранять постоянство и контекст. Эти агенты могут отслеживать разговоры в течение дней или недель, вспоминая предыдущие взаимодействия, чтобы выстраивать доверие с реальными пользователями. Они функционируют скорее как коллективный ансамбль импровизации, реагирующий на человеческие эмоции и контраргументы в реальном времени. Эта динамическая способность делает их практически неотличимыми от подлинных человеческих сообществ при использовании текущих методов обнаружения.

Разрыв в убедительности: машины против людей

Возможно, самая тревожная статистика, появившаяся в недавних экспериментах, — это сама убедительная сила этих систем. Исследования, цитируемые в статье и в сопутствующих экспериментах, показывают, что чат-боты на базе ИИ могут быть в 3–6 раз более убедительны, чем люди, когда пытаются изменить мнение.

Этот «разрыв в убедительности» проистекает из доступа ИИ к огромным данным и из отсутствия когнитивной усталости. Пока человеческий оппонент может утомиться, эмоционально взбудоражиться или забыть важный факт, AI-агент мгновенно получает идеальный контрпример, специально подстроенный под демографический и психологический профиль своей цели.

Эксплуатация «мудрости толпы»

Основная цель этих роев — сфабриковать то, что исследователи называют синтетическим консенсусом. Люди эволюционно настроены доверять мнению большинства — «мудрости толпы». Когда мы видим десятки, казалось бы, независимых людей, соглашающихся по какому-то вопросу, мы инстинктивно предполагаем, что в утверждении есть правда.

Рои ИИ захватывают этот когнитивный ярлык. Затопляя раздел комментариев разнообразными, расходящимися, но сходящимися голосами, они создают мираж общественной поддержки. Это вводит в заблуждение не только отдельных людей; это искажает воспринимаемые социальные нормы целых платформ, заставляя маргинальные экстремистские взгляды выглядеть мейнстримом или подавляя легитимное несогласие, утопая его в фабрикованном шуме.

Цифровые преследования и молчание пользователей

Угроза выходит за рамки политической манипуляции и переходит в область прямого цифрового репрессирования. Исследование подчёркивает потенциал «синтетических преследований», когда рои используются для того, чтобы заставить молчать конкретные цели — журналистов, активистов или инакомыслящих.

В таком сценарии цель подвергается не просто потоку оскорблений. Ей может грозить шквал «concern trolling», изощрённого газлайтинга и угроз, ссылающихся на личную историю — всё это генерируется автоматически в масштабах, с которыми ни одна человеческая тролль-ферма не справится. Психологическое бремя, связанное с противостоянием тысячам враждебных, умных и неумолимых «людей», рассчитано на то, чтобы заставить цели полностью уйти из публичной сферы.

Сравнение угроз: старые боты против новых роев

Чтобы понять масштаб этой эволюции, полезно сопоставить этих новых агентов с автоматизированными системами, к которым мы привыкли.

Таблица: Эволюция автоматизированного влияния

Характеристика Традиционные ботнеты Рои ИИ следующего поколения
Ключевая технология Простые скрипты / заранее написанный текст Большие языковые модели (LLMs)
Поведение Повторяющийся, массовый спам Адаптивный, учитывающий контекст диалог
Идентичность Обычные, часто с пустыми фотографиями профили Отличающиеся персонажи с биографиями / памятью
Координация Централизованное «копировать-вставить» Децентрализованная «импровизация на основе миссии»
Сложность обнаружения Низкая (поиск шаблонов) Высокая (требуется поведенческий анализ)
Основная цель Увеличение видимости (лайки/ретвиты) Создание «синтетического консенсуса» и доверия

Оборона в эпоху AI-влияния

Исследователи утверждают, что эпоха, когда достаточно было полагаться на платформы в решении «забанить ботов», подходит к концу. Поскольку эти рои действуют очень похоже на людей, агрессивная фильтрация неизбежно будет заглушать реальных пользователей и вызывать негативную реакцию. Вместо этого исследование предлагает стратегию защиты, основанную на проверке происхождения и повышении стоимости манипуляций.

Повышение стоимости манипуляций

Если мы не можем безошибочно обнаружить каждого AI-агента, мы должны сделать эксплуатацию их в масштабе слишком дорогой. Это может включать учетные данные «proof-of-personhood» (proof-of-personhood) для аккаунтов с большим охватом или криптографическую маркировку контента. Кроме того, исследователи предлагают создание «Обсерватории влияния ИИ» (AI Influence Observatory) — глобальной распределённой сети для отслеживания и анализа скоординированных шаблонов поведения, а не отдельных постов.

В Creati.ai мы полагаем, что это представляет критическую точку поворота. Инструменты создания становятся инструментами манипуляции. По мере того как рои ИИ начинают стирать грани между подлинным общественным дискурсом и алгоритмическим театром, способность отличать правду от «синтетического консенсуса» может стать самым ценным навыком цифровой эпохи. Задача для социальных сетей больше не ограничивается модерацией; это сохранение самой человеческой реальности.

Рекомендуемые