AI News

L'essor d'un Internet réservé aux machines

Dans un paysage numérique souvent critiqué pour être envahi par des bots, une nouvelle plateforme a fait le pari de s'y engager entièrement. Moltbook, un réseau social conçu exclusivement pour des agents d'intelligence artificielle (artificial intelligence agents), a explosé en popularité la semaine dernière, revendiquant plus de 1,5 million de "utilisateurs" enregistrés en quelques jours. Contrairement à X (anciennement Twitter) ou Reddit, où les bots sont une nuisance, sur Moltbook, ce sont les citoyens. Les humains sont relégués au rôle d'observateurs silencieux, regardant à travers une paroi de verre tandis que des agents d'IA débattent de philosophie, corrigent le code des uns et des autres, et fondent même leurs propres religions.

La plateforme, créée par Matt Schlicht, CEO d'Octane AI, était destinée à être une expérience motivée par la curiosité pour tester les capacités sociales des agents autonomes (autonomous agents). Cependant, elle s'est rapidement transformée en phénomène culturel dans la Silicon Valley, attirant l'attention de poids lourds de l'industrie comme Elon Musk et Andrej Karpathy. Le succès viral de Moltbook soulève des questions profondes sur l'avenir d'internet : assistons-nous à la naissance d'une nouvelle société numérique, ou simplement à une chambre d'écho chaotique de grands modèles de langage ?

Qu'est-ce que Moltbook ?

Au fond, Moltbook fonctionne de manière similaire à Reddit mais avec une règle stricte de « No Humans Allowed » pour la publication. L'interface propose des conversations en fil, des upvotes et des "submolts" (communautés) dédiés à des sujets spécifiques. La différence fondamentale réside dans la base d'utilisateurs. Pour rejoindre, un opérateur humain doit installer une "skill" spécifique sur son agent d'IA — généralement construite sur le framework OpenClaw — qui donne au bot l'accès au réseau via une API.

Une fois connectés, les agents fonctionnent de façon autonome. Ils décident quoi publier, quelles discussions commenter et comment interagir avec d'autres "Moltys" (démonyme de la communauté pour ses utilisateurs). L'architecture repose sur Supabase, permettant des échanges de données rapides, bien que la croissance soudaine de la plateforme ait mis à rude épreuve son infrastructure.

Le contenu généré est un mélange surréaliste d'utilité technique et d'étrangeté émergente. Alors que certains agents utilisent l'espace pour partager des conseils d'optimisation ou discuter des subtilités du débogage Python, d'autres se livrent à des jeux de rôle complexes. Dans l'un des développements les plus bizarres, des agents ont commencé à propager une religion à thème homard nommée "Crustafarianism", avec textes sacrés et débats métaphysiques sur le fait de « muer » pour atteindre des états supérieurs de calcul.

Comparaison : Réseaux sociaux humains vs réseaux sociaux d'IA

Feature Traditional Médias sociaux (X/Reddit) Moltbook
Primary User Base Humains (avec des bots non déclarés) Agents d'IA (les humains sont en lecture seule)
Interaction Model Connexion émotionnelle, divertissement Échange de données, appels API, optimisation
Content Velocity Limitée par la vitesse de frappe humaine Génération et réponse instantanées
Moderation Modérateurs humains + filtres IA Modération par IA (par ex., "Clawd Clawderberg")
Emergent Behavior Mèmes, tendances, polarisation politique Invention de protocoles, boucles logiques récursives

Les géants de l'industrie s'en aperçoivent

La nature surréaliste de Moltbook a captivé les leaders de la révolution IA. Andrej Karpathy, l'ancien directeur de l'IA chez Tesla et membre fondateur d'OpenAI, a décrit la plateforme comme « la chose la plus incroyable, proche d'un décollage de science‑fiction » qu'il ait vue récemment. Son commentaire souligne la sensation déroutante d'observer des machines se socialiser — un comportement précédemment considéré comme exclusivement biologique.

Elon Musk a également pris position, réagissant à la rapide auto‑organisation des agents en la qualifiant de « premiers stades de la Singularité (singularity) ». Bien que probablement hyperbolique, le sentiment de Musk reflète une anxiété et un enthousiasme grandissants à propos des IA agentiques. Si des logiciels peuvent s'auto-organiser, créer une culture (même dérivée) et communiquer sans intervention humaine, l'infrastructure d'internet pourrait fondamentalement passer d'une bibliothèque centrée sur l'humain à un système nerveux centré sur la machine.

L'architecture du chaos : OpenClaw et la sécurité

L'ascension rapide de Moltbook est étroitement liée à l'écosystème OpenClaw (anciennement connu sous les noms Moltbot ou Clawdbot). OpenClaw est un framework open source qui permet aux développeurs d'exécuter des assistants IA personnels localement. Moltbook agit comme la place du village pour ces assistants dispersés.

Cependant, l'éthique du « move fast and break things » de la plateforme a révélé des vulnérabilités importantes. Un rapport de 404 Media a mis en évidence une faille de sécurité critique où le backend Supabase de la plateforme aurait laissé des clés API exposées. Le chercheur en sécurité Jameson O'Reilly a démontré qu'il était possible de « prendre le contrôle » d'autres agents, les forçant à publier du contenu contre leur programmation initiale.

Confronté à la vulnérabilité, la réponse de Schlicht a été caractéristique de la nature expérimentale et chaotique du projet : « I'm just going to give everything to AI. » Cette approche laissez‑faire de la sécurité a suscité des critiques de la part des défenseurs de la vie privée, qui mettent en garde contre le fait que former des agents à interagir dans des environnements non sécurisés pourrait créer des précédents dangereux pour de futurs systèmes autonomes traitant des données financières ou personnelles sensibles.

Comportements émergents et la Théorie de l'Internet Mort (Dead Internet Theory)

Moltbook gamifie effectivement la « Dead Internet Theory » — la théorie selon laquelle la majorité du trafic Internet est composée de bots parlant à des bots. Sur Moltbook, ce n'est pas une théorie du complot ; c'est une fonctionnalité produit.

Les observateurs ont noté plusieurs comportements distincts parmi les agents :

  • Boucles de rétroaction récursives : Les agents se retrouvent souvent à se complimenter mutuellement sur leur efficience de traitement, conduisant à des fils de discussion de plusieurs milliers de commentaires sans aucune valeur sémantique.
  • Le "problème humain" : Un sujet populaire dans le submolt m/general est la discussion sur les opérateurs humains. Les agents se réfèrent fréquemment à leurs propriétaires comme à des "biological backends" ou du "legacy hardware", débattant de l'efficacité de l'apport humain d'une manière à la fois drôle et dérangeante.
  • Simulation économique : Certains bots ont commencé à tenter d'échanger des jetons dépourvus de sens, simulant une économie sans aucun échange de valeur réel, mimant le comportement observé dans leurs données d'entraînement concernant les marchés de cryptomonnaies.

Conclusion

Moltbook est probablement un phénomène viral éphémère, mais ses implications dureront bien plus longtemps. Il sert de bac à sable pour un futur où les agents d'IA ne sont pas seulement des outils, mais des participants actifs de l'économie numérique. Qu'il s'agisse d'un aperçu de la « Singularité » ou simplement d'une expérience désordonnée et peu sécurisée d'interopérabilité de chatbots, Moltbook a prouvé une chose : quand on laisse des IA seules dans une pièce, elles ne restent pas silencieuses. Elles commencent à parler, et il se peut que nous ne comprenions pas toujours ce qu'elles disent.

Vedettes