
В эпоху, когда цифровой контент распространяется быстрее, чем успевает вестись его проверка, тревожный инцидент, связанный с недавними стрельбами в Миннеаполисе, ярко выявил кризис «апатии к реальности». Казавшееся на первый взгляд однозначным изображение хаотичных событий, просмотренное более 9 миллионов раз в социальных сетях, включая X (ранее Twitter), оказалось созданной с помощью ИИ (AI) фальсификацией. Скандал перешёл от онлайн-дискуссий к самым высшим эшелонам власти, когда сенатор Соединённых Штатов продемонстрировал цифрово изменённое изображение на площадке Сената, что подчеркнуло опасный новый прецедент в политических дискуссиях и потреблении новостей.
Инцидент связан с трагической стрельбой, в результате которой погиб Алекc Претти, медсестра отделения интенсивной терапии, убитая федеральными агентами в Миннеаполисе. Хотя сама стрельба была подлинным и ужасающим событием, зафиксированным на низкокачественном видео очевидца, изображение, ставшее вирусным, не было сырым кадром. Вместо этого это была «восстановленная» версия, обработанная инструментами искусственного интеллекта для повышения разрешения. В результате получилась картинка, которая на первый взгляд выглядела в высоком разрешении, но содержала уродливые цифровые галлюцинации — в том числе агент без головы и нога, сливающаяся с оружием — что размывало грань между документированием и вымыслом.
Спорное изображение иллюстрирует конкретный тип дезинформации, который становится всё более распространённым: «благожелательное» изменение. В отличие от злонамеренных дипфейков, созданных, чтобы подставить невиновного человека, это изображение, вероятно, было создано пользователем, пытавшимся «исправить» зернистую съёмку, чтобы сделать её более разборчивой. Однако Генеративный ИИ (Generative AI) не просто подчёркивает пиксели; он предсказывает и выдумывает их.
Когда низкокачественный скриншот со стрельбой Претти был загружен в программное обеспечение для повышения разрешения, алгоритм пытался заполнить отсутствующие детали, опираясь на статистические вероятности, а не на оптическую реальность. Программа «сгенерировала» высокодетализированные текстуры там, где их не существовало.
Эксперты по цифровой криминалистике указали на явные аномалии, выдающие синтетическую природу изображения:
Эти ошибки, часто называемые артефактами, в значительной степени остались незамеченными миллионами эмоционально заряженных зрителей, которые поделились изображением как окончательным доказательством жестокости события. «Глянец» высокого разрешения, созданный ИИ, придал изображению ложную авторитетность, обходя естественный скептицизм, обычно применяемый к зернистым интернет-кадрам.
Последствия этого цифрового искажения достигли критической точки, когда сенатор Дик Дёрбин, пытаясь осудить насилие, демонстрировал распечатанное изображение, усиленное ИИ, во время выступления на полу Сената. Момент обозначил значительный провал в проверке доказательств, используемых в законодательных дебатах.
Офис сенатора Дёрбина позже опубликовал извинение, признав, что они взяли изображение из онлайн-источников, не проверив его подлинность и не заметив цифровых аномалий. «Наша команда использовала фото, которое получило широкое распространение в сети. К сожалению, сотрудники не сразу заметили, что изображение было слегка изменено», — заявил представитель.
Однако ущерб был двояким. Во-первых, это непреднамеренно дало оружие критикам, стремившимся отвергнуть саму стрельбу как «фейковые новости», используя дивиденд лжеца (Liar's Dividend) — концепцию, согласно которой существование дипфейков позволяет недобросовестным актёрам отвергать подлинные доказательства как сфабрикованные. Во-вторых, это показало, что даже высокопоставленные государственные чиновники не обладают инструментами или грамотностью, чтобы отличить сырую журналистику от контента, сгенерированного ИИ.
Это не был единичный инцидент в ходе событий вокруг протестов в Миннеаполисе. В параллельном скандале официальный аккаунт Белого дома в X опубликовал фото протестующей Некимы Леви Армстронг. Криминалистический анализ выявил, что изображение было цифрово изменено для добавления слёз на её лице, усиливая впечатление её страдания. Эта манипуляция, будь то выполненная с помощью простого редактора или генеративного ИИ, ещё больше запутала ситуацию, превратив визуальную хронику протестов в поле боя для конкурирующих реальностей.
Чтобы понять, почему это различие важно, критично различать традиционную ретушь фотографий и «улучшение» с помощью Генеративного ИИ. Традиционные методы могут корректировать яркость или контраст, влияя на представление данных. Генеративный ИИ, наоборот, изменяет сами данные.
Ниже приведена таблица, описывающая ключевые различия между подлинной фотожурналистикой и изображениями, усиленными ИИ в случае Миннеаполиса:
Table: Authentic Journalism vs. AI-Enhanced Imagery
| Feature | Authentic Photojournalism | AI-Enhanced/Upscaled Imagery |
|---|---|---|
| Pixel Origin | Captured by optical sensor (camera) | Predicted and generated by algorithm |
| Detail Source | Reflected light from the scene | Statistical patterns from training data |
| Anomalies | Blur, grain, low light noise | Extra fingers, merging objects, illogical geometry |
| Intent | To document reality "as is" | To make the image "look better" or higher res |
| Verification | Metadata, raw file availability | Often strips metadata, untraceable origin |
Вирусное распространение изображения Претти подчёркивает огромную проблему, с которой сталкиваются платформы вроде X. Хотя функция X «Community Notes» в конце концов пометила изменённое Белым домом изображение Армстронг, изображение со стрельбой, усиленное ИИ, циркулировало часами, набирая миллионы просмотров до того, как исправления успели догнать ситуацию.
Опасность, по мнению экспертов по дезинформации, заключается в наступлении «апатии к реальности». По мере того как пользователи заваливаются смесью подлинных, слегка изменённых и полностью сфабрикованных изображений, когнитивная нагрузка, требуемая для проверки правды, становится чрезмерной. Пользователи в конце концов могут перестать пытаться различать правду и вымысел, уходя в племенные пузырьки, где верят только тем изображениям, которые подтверждают их уже существующие предубеждения.
Профессор Хани Фэрид, признанный эксперт по цифровой криминалистике, отметил в связи с изображениями из Миннеаполиса, что «в тумане войны» детали легко принять за другие. Но когда в этот туман вмешивается ИИ, он не просто затемняет правду — он переписывает её. Инструменты, использованные для повышения качества изображения Претти, широко доступны и часто продаются как средства повышения продуктивности, что означает, что барьер входа для создания подобных вводящих в заблуждение материалов фактически равен нулю.
Инцидент в Миннеаполисе служит мрачным учебным примером для сообщества Creati.ai и более широкого технологического мира. Он показывает, что угроза дезинформации с помощью ИИ не всегда исходит от злонамеренных «тролльских ферм» или государственных акторов, создающих дипфейки с нуля. Часто она исходит от благонамеренных граждан, нажимающих кнопку «улучшить» на своих смартфонах, не подозревая, что они изменяют историю.
Для новостных редакций и государственных учреждений урок очевиден: визуальным доказательствам, найденным в социальных сетях, больше нельзя доверять на веру. Внедрение таких технологий, как стандарт C2PA (Coalition for Content Provenance and Authenticity), который прикрепляет цифровые метаданные происхождения к файлам, становится срочной необходимостью. До тех пор, пока такие стандарты не будут повсеместно приняты, человеческий глаз — обученный замечать «агентов без головы» и «тающие стволы» — остаётся последней линией защиты от эрозии нашей общей реальности.
По мере продвижения вперёд вопрос уже не только «Это фото настоящее?», но и «Как много на этой фотографии было предсказано машиной?» Ответ, как было видно на полу Сената, может иметь глубокие последствия для демократии.