
Поскольку искусственный интеллект (artificial intelligence) все чаще становится основным способом, с помощью которого общественность потребляет информацию, ведущий британский аналитический центр выпустил резкое предупреждение: информационная экосистема формируется «невидимыми редакторскими решениями», и требуются срочные регуляторные вмешательства. The Institute for Public Policy Research (IPPR), видная аналитическая группа левого центра, опубликовала всесторонний доклад в пятницу, 30 января 2026 года, предлагая радикальную перестройку того, как представляются и монетизируются новости, сгенерированные ИИ.
Доклад, появившийся на фоне глобальных дебатов о взаимоотношениях больших технологических компаний и четвертой власти, утверждает, что компании, работающие с ИИ, фактически стали новыми «страховыми воротами» интернета. Чтобы решить проблему непрозрачности алгоритмического подбора источников и экзистенциальную финансовую угрозу журналистике, IPPR рекомендует два основных политических сдвига: внедрение стандартизированных «информационных этикеток» для контента, созданного ИИ, и установление обязательного режима лицензирования для обеспечения компенсации издателям за их работу.
В основе предложения IPPR лежит концепция «информационной этикетки ИИ». Точно так же, как законодательство обязывает указывать ингредиенты и питательную ценность на упаковке пищевых продуктов, IPPR утверждает, что модели ИИ — особенно те, которые используются для распространения новостей — должны раскрывать «ингредиенты» своих ответов.
В настоящее время, когда пользователь спрашивает Большую языковую модель (Large Language Model, LLM) или интегрированного в поиск AI-агента о текущих событиях, система часто синтезирует связный ответ, не обозначая ясно, откуда взяты отдельные факты. Предлагаемые IPPR этикетки обязали бы интерфейсы ИИ явно показывать происхождение информации, использованной для генерации ответа. Это включало бы пометки о том, исходят ли исходные материалы из рецензируемых исследований, установившихся профессиональных новостных организаций или непроверённого пользовательского контента.
Роа Пауэлл (Roa Powell), старший научный сотрудник IPPR и соавтор доклада, подчеркнула, что это не просто техническая корректировка, а демократическая необходимость. «Если компании, работающие с ИИ, собираются извлекать прибыль из журналистики и формировать то, что видит общественность», — заявила Пауэлл, — «их необходимо обязать справедливо платить за используемые новости и действовать в рамках чётких правил, которые защищают плюрализм, доверие и долгосрочное будущее независимой журналистики».
Призыв к прозрачности отвечает на растущую озабоченность относительно «галлюцинаций» и закрытой природы рассуждений ИИ. Стандартизируя эти этикетки, IPPR стремится дать пользователям возможность критически оценивать надёжность вывода ИИ, подобно тому, как потребитель проверяет содержание сахара или аллергенов на пищевой этикетке.
Доклад проливает свет на тревожную тенденцию в том, как модели ИИ отбирают и представляют новости. Согласно исследованию IPPR, в которое входили тесты на основных платформах, включая ChatGPT, Google AI Overviews, Google Gemini и Perplexity по 100 запросам, связанным с новостями, наблюдается значительное сужение информационного потока.
Результаты указывают на то, что «двигатели ответов» ИИ опираются на сильно концентрированный набор источников. Исследование показало, что в среднем 34% журналистских цитирований в этих инструментах указывают на один и тот же новостной бренд, часто на устоявшегося тяжеловеса, такого как BBC или The Guardian. Хотя это обеспечивает базовый уровень доверия, это создаёт риск возникновения эхо-камеры, где меньшие, местные или специализированные издания фактически стираются из цифрового сознания.
Это явление «невидимых редакторских выборов» означает, что компании, разрабатывающие ИИ, определяют иерархию новостей без традиционной ответственности со стороны человеческого редактора. IPPR предупреждает, что без вмешательства такая централизация может подавить медиаплюрализм, оставив общественность с унифицированным взглядом на сложные вопросы.
Помимо прозрачности, доклад IPPR затрагивает экономический кризис в новостной индустрии. Поскольку платформы ИИ всё чаще напрямую отвечают на пользовательские запросы — так называемые «zero-click» взаимодействия — реферальный трафик на сайты издателей стремительно падает. Это разрывает традиционную модель доходов от рекламы, которая поддерживала цифровую журналистику на протяжении двух десятилетий.
В ответ IPPR предлагает внедрить режим обязательного лицензирования. Это заставило бы технологических гигантов заключать коллективные платёжные соглашения с издателями за право использования их контента при обучении моделей и при генерации в реальном времени с извлечением (real-time retrieval generation, RAG).
Предложение соответствует недавним инициативам Управления по конкуренции и рынкам Великобритании (CMA). Только на этой неделе CMA предложило дать веб-издателям возможность отказаться от того, чтобы их контент скрапировался для обзоров Google AI, не теряя при этом позицию в традиционных результатах поиска. IPPR рассматривает это как основополагающий шаг к более широкому рынку лицензирования, в котором коллективные переговоры обеспечат справедливую компенсацию не только медиагигантам, но и более мелким изданиям.
Comparison of Current Landscape vs. IPPR Proposals
| Metric | Current AI News Ecosystem | IPPR Proposed Regulation |
|---|---|---|
| Source Transparency | Opaque; sources often buried or uncredited | Standardized "информационные этикетки" detailing source types |
| Revenue Model | Zero-click answers bypass publisher ads | Mandatory licensing fees paid to content creators |
| Editorial Control | Algorithmic "black box" selection | Audit trails for source selection; "conduct requirements" |
| Market Power | AI firms act as unchecked gatekeepers | CMA oversight with "Strategic Market Status" designations |
| Source Diversity | High concentration (top 1% of publishers) | Mechanisms to ensure plurality and inclusion of local news |
Рекомендации IPPR появляются в поворотный момент. Недавние данные Reuters Institute for the Study of Journalism показывают, что примерно 25% пользователей интернета теперь используют инструменты ИИ для поиска информации, а одни только Google AI Overviews ежемесячно охватывают примерно 2 миллиарда пользователей. Масштаб этого сдвига указывает на то, что окно для эффективного регулирования закрывается.
Технологическая индустрия исторически сопротивлялась таким мерам, аргументируя это тем, что закон об авторском праве создаёт исключения «fair use» для майнинга данных, и что обязательные платежи задушат инновации. Однако IPPR прямо советует не ослаблять британское право об авторском праве ради удобства обучения ИИ, аргументируя вместо этого, что устойчивый рынок лицензирования — единственный долгосрочный путь вперёд.
Критики предложения могут утверждать, что «информационные этикетки» могут стать чрезмерно сложными или что пользователи будут их игнорировать, подобно тому, как воспринимаются баннеры согласия на cookies. Кроме того, механика системы «обязательного лицензирования» полна сложностей: как оценить стоимость одной статьи, если ИИ синтезирует абзац из тысячи разных источников?
Несмотря на эти сложности, импульс к регулированию нарастает. Аналогия с «пищевой этикеткой» резонирует, потому что она ставит проблему в терминах защиты потребителя, а не только споров об интеллектуальной собственности. Это предполагает, что «информационный рацион» общественности — вопрос общественного здоровья, требующий такого же контроля, как и физическое снабжение продуктами.
Для Creati.ai это развитие подчёркивает двусторонний характер генеративного ИИ (Generative AI). Хотя технология предоставляет беспрецедентные инструменты для творчества и синтеза, она представляет собой структурную угрозу исходному материалу — человеческому репортажу — который питает эти системы.
Доклад IPPR — это не просто перечень желаний; это дорожная карта, которая, вероятно, сигнализирует о будущих законодательных усилиях в Великобритании и потенциально в ЕС. Если эти меры будут приняты, они могут принудить к фундаментальной переработке таких продуктов, как ChatGPT и Perplexity, требуя от них создания инфраструктуры для атрибуции в реальном времени и обработки платежей.
Концепция «информационной этикетки» в конечном счёте служит метафорой для более зрелых отношений с ИИ. Она переводит пользователя из пассивного получателя «магических» ответов в информированного потребителя синтезированной информации. По мере того как ИИ закрепляется как интерфейс для сети, спрос на проверенную, «питательную» информацию — и устойчивую бизнес-модель для тех, кто её производит — вероятно, определит следующее десятилетие цифровой политики.