AI News

Мошенничество с дипфейками (Deepfake) достигает промышленных масштабов: конец принципу «видеть — значит верить»

6 февраля 2026 г. — Эра цифровых мошенников-одиночек официально подошла к концу. Согласно опубликованному сегодня новаторскому исследованию, глобальный ландшафт кибербезопасности перешел в фазу «индустриализированного обмана», где мошенничество с использованием ИИ (AI) больше не является диковинкой, а превратилось в конвейер массового производства, угрожающий самим основам цифрового доверия.

На протяжении многих лет эксперты Creati.ai и всей технологической отрасли предупреждали о потенциале синтетических медиа (Synthetic Media) дестабилизировать финансовые системы. Этот потенциал теперь превратился в суровую реальность. Новое исследование, проведенное платформой верификации личности Sumsub и подтвержденное расследованиями The Guardian, показывает, что количество инцидентов с дипфейками (deepfake) не просто возросло — они превратились в автоматизированные, низкозатратные и высокодоходные операции, которые с пугающей легкостью обходят традиционные рубежи обороны.

Индустриализация обмана

Отчет под названием The 2026 Identity Fraud Landscape рисует мрачную картину текущего состояния кибербезопасности (Cybersecurity). Основной вывод — переход от использования дипфейков в точечных, трудоемких атаках к их «промышленному» развертыванию. Мошеннические фермы теперь используют генеративный ИИ (Generative AI) для создания тысяч синтетических личностей в час, перегружая группы ручной проверки и устаревшие автоматизированные системы.

Согласно данным, объем обнаруженных дипфейков в секторе финтеха (fintech) вырос в ошеломляющие 10 раз по сравнению с прошлым годом. Это не просто количественный рост, а качественный сдвиг в сложности. В отчете отмечается резкий рост «инъекционных атак» (injection attacks), при которых хакеры полностью обходят камеру устройства, подавая заранее отрендеренные ИИ-видеоматериалы непосредственно в поток данных, что делает стандартное распознавание лиц бесполезным.

Таблица 1: Сдвиг в тактике мошенничества (2024 г. против 2026 г.)

Показатель 2024 (Эпоха прошлого) 2026 (Эпоха промышленного ИИ)
Основной метод атаки Простые атаки предъявления (маски/фото) Цифровая инъекция и 3D-рендеринг
Уровень обнаружения дипфейков ~70% людьми ~55% людьми (шанс 50/50)
Стоимость создания личности ~$150 USD ~$2 USD
Основные цели Платежные шлюзы Криптобиржи и необанки
Объем атак Вручную/по сценарию Полностью автоматизировано/ботами

Демократизация этих инструментов означает, что «кража личности ради прибыли» теперь доступна любому, у кого есть доступ к интернету. Как отмечается в анализе, возможности, которые когда-то требовали уровня CGI-студий Голливуда, теперь доступны как услуги по подписке в даркнете, позволяя злоумышленникам в реальном времени создавать локализованные видеоклоны генеральных директоров (CEO), политиков и членов семьи с идеальным акцентом.

Урок ценой в 25 миллионов долларов: уязвимость корпораций

Реальные последствия этих теоретических рисков были наглядно проиллюстрированы недавним резонансным случаем, подробно описанным в The Guardian. Сотрудник финансового отдела транснациональной фирмы был обманом вынужден перевести 25 миллионов долларов мошенникам во время видеоконференции. Изначально сотрудник заподозрил фишинг в электронном письме, но успокоился, когда присоединился к видеозвонку, на котором присутствовали финансовый директор (CFO) компании и несколько других коллег.

Ужасающая реальность? Все участники звонка, кроме жертвы, были дипфейками.

Этот инцидент, который теперь называют «паттерном Arup» после аналогичных атак, демонстрирует эффективность синтетических медиа (Synthetic Media) в корпоративном шпионаже. Речь идет не только о краже денег, но и о подрыве операционного доверия. Исследование также зафиксировало рост мошенничества, ориентированного на потребителей, например, дипфейк-врачи, рекламирующие сомнительные крема для кожи, и синтетические видеоролики с участием государственных чиновников, таких как премьер-министр Западной Австралии, одобряющих фейковые инвестиционные схемы.

Крах «цифровых водяных знаков»

Пока методы нападения масштабируются, оборона изо всех сил пытается найти единый стандарт. Параллельное расследование The Verge подчеркивает плачевное состояние стандарта C2PA (Coalition for Content Provenance and Authenticity). Протокол, который изначально преподносился как «панацея» для идентификации контента, созданного ИИ, терпит неудачу под давлением реальности.

Обещание C2PA заключалось в том, чтобы встраивать в файлы защищенные от несанкционированного доступа метаданные, выступающие в качестве ярлыка цифрового происхождения. Однако расследование выявляет раздробленную экосистему:

  • Удаление платформами: Крупные социальные сети часто удаляют эти метаданные в процессе сжатия при загрузке, делая «ярлык» невидимым для конечного пользователя.
  • Фрагментация оборудования: Ключевые производители оборудования, включая Apple, еще не полностью интегрировали стандарт в свои штатные конвейеры камер, в результате чего миллиарды устройств снимают неавторизованные медиаматериалы.
  • Апатия пользователей: Первые данные свидетельствуют о том, что даже при наличии маркировки пользователи часто игнорируют ее, привыкнув к предупреждениям «Создано ИИ».

Этот провал на уровне инфраструктуры говорит о том, что мы не можем полагаться на одну лишь маркировку для выхода из этого кризиса. Как недавно признал глава Instagram Адам Моссери (Adam Mosseri), обществу, возможно, придется перейти к модели «нулевого доверия» (zero-trust) для визуального контента, где скептицизм является состоянием по умолчанию, а не исключением.

Война за реальность: взгляд Creati.ai

Мы в Creati.ai считаем, что результаты 2026 года служат последним тревожным звонком. «Промышленный масштаб» атак с использованием дипфейков (Deepfake) означает, что пассивной защиты больше не достаточно. Поле битвы сместилось в сторону «обнаружения живости» (liveness detection) — способности системы в реальном времени отличать живого человека от его синтетической копии.

Системы обнаружения мошенничества (Fraud Detection) должны эволюционировать и выйти за рамки анализа статических пикселей. Следующее поколение безопасности будет опираться на анализ микровыражений, паттернов кровотока (rPPG) и тайминга взаимодействия, которые текущие модели ИИ пока не могут идеально воспроизвести в реальном времени.

Однако технологический разрыв сокращается. По мере того как генеративные модели становятся все более эффективными, окно для обнаружения этих аномалий сужается. Индустриализация мошенничества доказывает, что ИИ — это обоюдоострый меч: он приводит в действие механизмы творчества и продуктивности, но он же питает и кузницы обмана.

Как для бизнеса, так и для потребителей посыл ясен: видеозвонок, в котором вы участвуете, голосовое сообщение, которое вы только что получили, и срочный запрос от генерального директора могут оказаться не тем, чем кажутся. В 2026 году видеть — больше не значит верить; верифицировать — значит всё.

Рекомендуемые