
L'écrivain de science-fiction, activiste et journaliste de renom Cory Doctorow a lancé un avertissement sévère concernant l'état actuel de l'industrie de l'intelligence artificielle, la qualifiant de bulle financière destinée à un effondrement spectaculaire. Cependant, au milieu des décombres prévus des startups en faillite et des centres de données fermés, Doctorow prévoit un avenir résilient pour les modèles d'IA open source (open-source AI models) qui offrent des outils utilitaires tangibles aux créateurs et aux développeurs.
Dans une analyse complète publiée cette semaine, Doctorow soutient que la frénésie actuelle autour de l'IA générative (generative AI) est moins motivée par l'utilité technologique que par les impératifs financiers des « actions de croissance » et des géants technologiques monopolistiques. Alors que les perspectives immédiates pour les énormes investissements en capital de l'industrie semblent sombres, le pronostic à long terme suggère un basculement vers des outils d'IA décentralisés et exécutés localement qui servent les utilisateurs plutôt que de les asservir.
La critique de Doctorow commence par les structures financières qui soutiennent la Silicon Valley. Il avance que le boom actuel de l'IA est le résultat direct du paradoxe des « actions de croissance ». Les grands monopoles technologiques, ayant déjà capturé des parts de marché dominantes dans des secteurs comme la recherche, la publicité et le mobile, font face à une crise de croissance. Pour maintenir les ratios cours/bénéfices (PE) élevés exigés par les investisseurs, ces entreprises doivent continuellement inventer et gonfler de nouvelles « histoires de croissance ».
Selon Doctorow, l'IA est la dernière d'une série de tels récits, succédant aux trajectoires du métavers, des NFT et des crypto-monnaies. Les centaines de milliards de dollars investis dans l'infrastructure de l'IA ne reflètent pas nécessairement la rentabilité immédiate de la technologie, mais servent à convaincre le marché que ces entreprises matures sont encore capables d'une expansion exponentielle.
Le danger, comme l'expose l'analyse, est que cet investissement spéculatif crée une bulle mathématiquement impossible à soutenir. Lorsque le marché se corrigera finalement — réalisant que la technologie ne peut pas remplacer la main-d'œuvre à l'échelle promise — la valorisation de ces entreprises s'effondrera, entraînant une contraction généralisée du secteur.
Un thème central de l'argumentation de Doctorow est la distinction entre deux types d'interaction humain-machine : le «Centaure» (Centaur) et le «Centaure inversé» (Reverse Centaur). Ce cadre aide à expliquer pourquoi les déploiements d'IA actuels en entreprise semblent souvent exploiteurs plutôt qu'émancipateurs.
Table 1: The Centaur vs. The Reverse Centaur
| Concept | Définition | Scénario d'exemple |
|---|---|---|
| Le Centaure | Un humain assisté par une machine pour augmenter sa capacité et son efficacité. L'humain demeure maître du résultat. |
Un écrivain utilisant l'autocomplétion pour accélérer la frappe ou un développeur utilisant l'IA pour gérer la syntaxe répétitive. |
| Le Centaure inversé | Un humain servant d'appendice biologique à une machine. La machine dicte le rythme et les paramètres du travail. |
Un livreur surveillé par des caméras IA pour les mouvements oculaires et les indicateurs d'efficacité. |
Doctorow avertit que la stratégie actuelle des entreprises vise à créer des «Centaures inversés». L'objectif n'est pas de rendre les travailleurs plus puissants mais de déqualifier le travail au point où des professionnels bien rémunérés (comme des radiologues ou des développeurs seniors) peuvent être remplacés ou voir leurs salaires comprimés. Dans ce modèle, l'humain est maintenu dans la boucle principalement pour servir de «puits de responsabilité» — quelqu'un à blâmer lorsque le système automatisé commet inévitablement une erreur catastrophique.
Malgré les arguments marketing agressifs affirmant que l'IA remplacera de vastes pans de la main-d'œuvre, Doctorow soutient que la technologie est fondamentalement incapable de le faire efficacement dans sa forme actuelle. Il cite le domaine de la radiologie comme un exemple type. Bien que l'IA puisse identifier des motifs sur des radiographies, le modèle économique qui favorise son adoption n'est pas axé sur l'exactitude ou les résultats pour les patients, mais sur la réduction des coûts.
Le risque consiste à remplacer le jugement humain expert par un système automatisé statistiquement impressionnant mais sujet aux hallucinations. Dans le développement logiciel, cela se manifeste par du code généré par l'IA qui semble fonctionnel mais contient des bugs subtils et dangereux — comme des bibliothèques de code «hallucinées» qui n'existent pas ou, pire, qui ont été revendiquées par des acteurs malveillants pour compromettre des systèmes.
L'analyse suggère que pour que l'IA soit réellement précieuse pour les entreprises au sens où les investisseurs l'attendent, elle doit remplacer la main-d'œuvre bien rémunérée. Or, ce sont précisément ces rôles où le coût de l'erreur est le plus élevé et où la supervision humaine est la plus critique. Ce décalage entre la promesse de remplacement de la main-d'œuvre et la réalité des limites techniques est une source majeure de tension pour la bulle.
L'un des champs de bataille juridiques les plus importants pour l'IA concerne le droit d'auteur. Doctorow propose une vision contraire aux appels croissants en faveur de nouvelles lois sur le droit d'auteur couvrant les données d'entraînement de l'IA. Il soutient que l'élargissement du droit d'auteur pour interdire l'entraînement sur des données publiques se retournerait contre son auteur, ne servant qu'à enraciner le pouvoir des grands monopoles médiatiques qui contrôlent déjà les droits sur d'immenses catalogues de contenu.
Au lieu de cela, Doctorow défend la position actuelle de l'US Copyright Office, qui a constamment statué que les œuvres générées par l'IA ne peuvent pas être protégées par le droit d'auteur parce qu'elles manquent d'auteur humain. Ce principe juridique a des implications profondes :
En maintenant la production de l'IA dans le domaine public, le système juridique réduit l'incitation pour les entreprises à automatiser complètement les processus créatifs, car elles perdraient les droits de propriété intellectuelle qui constituent le socle de leurs modèles économiques.
Bien que la prédiction d'un krach de marché soit sombre, le point de vue de Doctorow n'est pas entièrement pessimiste. Il établit un parallèle avec la bulle .com et les fraudes des télécommunications du début des années 2000. Alors que des entreprises comme WorldCom se sont effondrées à cause de fraudes et de mauvaise gestion, l'infrastructure en fibre optique qu'elles avaient posée est restée dans le sol, alimentant finalement l'internet moderne.
De même, Doctorow prédit que lorsque la bulle de l'IA éclatera, l'«amiante» des actifs financiers toxiques et du battage inutile sera dépouillée, laissant derrière elle des vestiges précieux.
Ce qui survivra au crash :
Doctorow envisage un avenir où le «Big AI» — de gigantesques modèles fondamentaux s'exécutant dans des centres de données centralisés et énergivores — reculera. À sa place, nous verrons la prolifération du «Small AI» : des plugins et des outils locaux qui accomplissent des tâches spécifiques et utiles sans surveillance ni frais d'abonnement.
Ces outils survivants s'occuperont probablement de tâches utilitaires telles que :
Ces applications, libérées de la pression de générer des retours de l'ordre du billion de dollars, fonctionneront comme de véritables utilitaires — des «plugins» qui améliorent la productivité sans exiger la restructuration de l'ensemble de l'économie ni la subjugation de la main-d'œuvre.
La perspective offerte par Doctorow remet en cause l'inévitabilité du récit actuel sur l'IA. En séparant la technologie de la spéculation financière qui l'entoure, il éclaire une voie à suivre qui favorise la résilience de l'open source (open-source) plutôt que le monopole des entreprises. Pour la communauté de l'IA, le message est clair : la bulle peut éclater, mais les outils qui responsabilisent réellement les utilisateurs survivront, à condition qu'ils soient construits sur une base d'ouverture et de contrôle humain.
Alors que l'industrie se débat avec ces prédictions, l'attention des développeurs et des créatifs pourrait bien se détourner de la course à la prochaine valorisation massive pour se concentrer sur la construction d'outils durables, locaux et centrés sur l'humain qui définiront le paysage post-bulle.