
Alors que l'intelligence artificielle (AI) devient de plus en plus le prisme principal par lequel le public consulte l'information, un think tank britannique de premier plan a lancé un avertissement net : l'écosystème de l'information est en train d'être remodelé par des « choix éditoriaux invisibles », et une intervention réglementaire urgente est nécessaire. L'Institute for Public Policy Research (IPPR), un groupe de réflexion proéminent situé à gauche du centre, a publié un rapport complet le vendredi 30 janvier 2026, proposant une refonte radicale de la présentation et de la monétisation des actualités générées par l'IA.
Le rapport, qui intervient au milieu d'un débat mondial sur la relation entre les grandes entreprises technologiques et le quatrième pouvoir, soutient que les entreprises d'IA sont devenues de facto les nouveaux « gardiens » d'Internet. Pour traiter l'opacité des sources algorithmiques et la menace financière existentielle pesant sur le journalisme, l'IPPR recommande deux changements politiques majeurs : la mise en place d'étiquettes nutritionnelles standardisées (nutrition labels) pour le contenu généré par l'IA et l'établissement d'un régime de licences obligatoire pour garantir que les éditeurs soient rémunérés pour leur travail.
Au cœur de la proposition de l'IPPR se trouve le concept d'« étiquette nutritionnelle pour l'IA ». Tout comme les emballages alimentaires doivent légalement indiquer leurs ingrédients et leur valeur nutritionnelle aux consommateurs, l'IPPR soutient que les modèles d'IA — en particulier ceux utilisés pour la diffusion de l'information — doivent divulguer les « ingrédients » de leurs réponses.
Actuellement, lorsqu'un utilisateur interroge un grand modèle de langage (LLM) ou un agent d'IA intégré aux moteurs de recherche sur des événements d'actualité, le système synthétise souvent une réponse cohérente sans distinguer clairement d'où proviennent les faits individuels. Les étiquettes proposées par l'IPPR obligeraient les interfaces d'IA à afficher explicitement la provenance des informations utilisées pour générer une réponse. Cela inclurait la signalisation indiquant si le matériau source provient d'études évaluées par des pairs, d'organisations de presse professionnelles établies ou de contenus générés par des utilisateurs non vérifiés.
Roa Powell, chercheuse principale à l'IPPR et co-auteure du rapport, a souligné qu'il ne s'agit pas simplement d'un ajustement technique, mais d'une nécessité démocratique. « Si les entreprises d'IA doivent tirer profit du journalisme et façonner ce que le public voit, a déclaré Powell, elles doivent être tenues de payer équitablement pour les informations qu'elles utilisent et opérer sous des règles claires qui protègent la pluralité, la confiance et l'avenir à long terme du journalisme indépendant. »
L'appel à la transparence répond à une inquiétude croissante concernant les « hallucinations » et la nature de boîte noire du raisonnement des IA. En normalisant ces étiquettes, l'IPPR vise à permettre aux utilisateurs d'évaluer de manière critique la fiabilité de la production de l'IA, de la même manière qu'un consommateur vérifie une étiquette alimentaire pour la teneur en sucre ou les allergènes.
Le rapport met en lumière une tendance préoccupante dans la manière dont les modèles d'IA sélectionnent et présentent l'actualité. Selon la recherche de l'IPPR, qui a impliqué des tests sur les principales plateformes, notamment ChatGPT, Google AI Overviews, Google Gemini et Perplexity, portant sur 100 requêtes liées à l'actualité, il existe un rétrécissement significatif du flux d'information.
Les conclusions indiquent que les « moteurs de réponses » d'IA s'appuient sur un ensemble de sources fortement concentré. La recherche a révélé que, en moyenne, 34 % des citations journalistiques sur ces outils renvoient à une seule marque d'information, souvent un poids lourd historique comme la BBC ou The Guardian. Si cela garantit un socle minimal de crédibilité, cela risque de créer une chambre d'écho où les publications plus petites, locales ou spécialisées sont effectivement effacées de la conscience numérique.
Ce phénomène de « choix éditoriaux invisibles » signifie que les entreprises d'IA déterminent la hiérarchie de l'information sans la responsabilité traditionnelle d'un éditeur humain. L'IPPR avertit que, sans intervention, cette centralisation pourrait étouffer la pluralité médiatique, laissant le public avec une vision homogénéisée de questions complexes.
Au-delà de la transparence, le rapport de l'IPPR aborde la crise économique qui afflige l'industrie de l'information. À mesure que les plateformes d'IA répondent de plus en plus directement aux requêtes des utilisateurs — ce que l'on appelle une interaction sans clic (zero-click) — le trafic de renvoi vers les sites des éditeurs s'effondre. Cela rompt le modèle publicitaire traditionnel qui a soutenu le journalisme numérique pendant deux décennies.
Pour contrer cela, l'IPPR propose un régime de licences obligatoire. Cela obligerait les géants de la technologie à négocier des accords de paiement collectifs avec les éditeurs pour le droit d'utiliser leur contenu dans l'entraînement des modèles et la récupération/génération en temps réel (RAG).
La proposition s'aligne sur les récentes initiatives de la Competition and Markets Authority (CMA) du Royaume-Uni. Cette semaine, la CMA a proposé de permettre aux éditeurs web de choisir de ne pas voir leur contenu aspiré pour les résumés IA de Google sans perdre leur position dans les résultats de recherche traditionnels. L'IPPR considère cela comme une étape fondamentale vers un marché de licences plus large où la négociation collective garantit que non seulement les géants des médias, mais aussi les petits titres, reçoivent une rémunération équitable.
Comparison of Current Landscape vs. IPPR Proposals
| Metric | Current AI News Ecosystem | IPPR Proposed Regulation |
|---|---|---|
| Source Transparency | Opaque; sources often buried or uncredited | Standardized "étiquettes nutritionnelles" detailing source types |
| Revenue Model | Zero-click answers bypass publisher ads | Mandatory licensing fees paid to content creators |
| Editorial Control | Algorithmic "black box" selection | Audit trails for source selection; "conduct requirements" |
| Market Power | AI firms act as unchecked gatekeepers | CMA oversight with "Strategic Market Status" designations |
| Source Diversity | High concentration (top 1% of publishers) | Mechanisms to ensure plurality and inclusion of local news |
Les recommandations de l'IPPR arrivent à un moment charnière. Des données récentes du Reuters Institute for the Study of Journalism suggèrent qu'environ 25 % des internautes utilisent désormais des outils d'IA pour rechercher de l'information, et les Google AI Overviews atteignent à eux seuls environ 2 milliards d'utilisateurs par mois. L'ampleur de ce basculement indique que la fenêtre pour une régulation significative se referme.
L'industrie technologique s'est historiquement opposée à de telles mesures, arguant que le droit d'auteur crée des exceptions de « fair use » pour l'extraction de données et que des paiements obligatoires étoufferaient l'innovation. Cependant, l'IPPR conseille explicitement de ne pas affaiblir le droit d'auteur britannique pour accommoder l'entraînement des IA, soutenant au contraire qu'un marché robuste de licences est la seule voie durable.
Les détracteurs de la proposition pourraient soutenir que les « étiquettes nutritionnelles » pourraient devenir excessivement complexes ou que les utilisateurs pourraient les ignorer, à l'instar des bannières de consentement aux cookies. De plus, les mécanismes d'un système de « licences obligatoires » sont pleins de complexités : comment quantifier la valeur d'un seul article lorsque une IA synthétise un paragraphe à partir de mille sources différentes ?
Malgré ces défis, l'élan en faveur d'une régulation se renforce. L'analogie de l'« étiquette nutritionnelle » résonne car elle encadre le problème en termes de protection du consommateur plutôt que de simples litiges de propriété intellectuelle. Elle suggère que le « régime d'information » du public est une question de santé publique, soumise au même niveau d'examen que l'approvisionnement alimentaire physique.
Pour Creati.ai, cette évolution souligne la nature à double tranchant de l'IA générative. Si la technologie offre des outils sans précédent pour la créativité et la synthèse, elle constitue une menace structurelle pour la matière première — le reportage humain — qui l'alimente.
Le rapport de l'IPPR n'est pas simplement une liste de souhaits ; c'est une feuille de route qui signale probablement de futures initiatives législatives au Royaume‑Uni et potentiellement dans l'UE. Si elles sont adoptées, ces mesures pourraient contraindre une réingénierie fondamentale de produits comme ChatGPT et Perplexity, en les obligeant à construire des infrastructures pour l'attribution en temps réel et le traitement des paiements.
Le concept d'« étiquette nutritionnelle » sert finalement de métaphore pour une relation plus mature avec l'IA. Il fait passer l'utilisateur d'un simple destinataire passif de réponses « magiques » à un consommateur informé d'informations synthétisées. À mesure que l'IA consolide sa position comme interface du web, la demande d'informations vérifiées et nutritives — et d'un modèle économique durable pour ceux qui les produisent — définira probablement la prochaine décennie de la politique numérique.