
Dans un moment déterminant pour l'industrie de l'intelligence artificielle (artificial intelligence), Meta Platforms a officiellement dévoilé "Meta Compute", une nouvelle initiative de premier plan conçue pour réorganiser et étendre de manière agressive son infrastructure d'IA. Annoncée par le PDG Mark Zuckerberg, la division représente un virage stratégique pour le géant des médias sociaux, qui oriente son attention vers la possession des « rails » physiques du prochain paradigme technologique. Avec des plans visant à déployer des dizaines de gigawatts de capacité de calcul au cours de la décennie et des investissements prévus pour atteindre plusieurs centaines de milliards de dollars, Meta se positionne pour construire la fondation de ce que Zuckerberg qualifie de « superintelligence personnelle (personal superintelligence) ».
Le lancement de Meta Compute marque une restructuration importante des opérations internes de Meta. Historiquement, l'infrastructure chez Meta répondait aux besoins de sa famille d'applications — Facebook, Instagram et WhatsApp. Cependant, les exigences exponentielles d'entraînement et d'exploitation de modèles d'IA avancés, tels que le supposé Llama 4 "Behemoth", ont rendu nécessaire la création d'une entité dédiée exclusivement à l'échelle de calcul.
Mark Zuckerberg a annoncé l'initiative via un post sur Threads, déclarant : « La façon dont nous concevons, investissons et nous associons pour construire cette infrastructure deviendra un avantage stratégique. » L'objectif n'est pas simplement de suivre des concurrents comme Google et Microsoft, mais de les surpasser en garantissant l'indépendance énergétique et matérielle.
La structure de direction de Meta Compute reflète cette ambition à enjeux élevés. La division sera codirigée par Santosh Janardhan, le long directeur de l'infrastructure mondiale de Meta, et Daniel Gross, l'ancien PDG de Safe Superintelligence qui a rejoint Meta à l'été 2025. Ce modèle de double direction répartit l'attention entre l'exécution technique et la planification stratégique de capacité à long terme.
Structure de direction de Meta Compute
| Executive | Role | Primary Responsibilities |
|---|---|---|
| Santosh Janardhan | Co-Head, Meta Compute | Architecture technique, silicium personnalisé (MTIA), pile logicielle, et opérations quotidiennes de la flotte de centres de données (data center). |
| Daniel Gross | Co-Head, Meta Compute | Stratégie de capacité à long terme, partenariats fournisseurs, analyse sectorielle et modélisation commerciale. |
| Dina Powell McCormick | President & Vice Chairman | Partenariats souverains et gouvernementaux, axés sur le financement et l'alignement réglementaire pour le déploiement d'infrastructures globales. |
Les spécifications techniques présentées dans l'annonce sont stupéfiantes. Alors que les centres de données actuels de pointe fonctionnent à l'échelle du mégawatt, Meta Compute vise « des dizaines de gigawatts » d'ici 2030, avec une vision à long terme atteignant des centaines de gigawatts. Pour mettre cela en perspective, un gigawatt unique fournit à peu près assez d'énergie pour alimenter des centaines de milliers de foyers, ou une ville de la taille de San Francisco.
Cette expansion exige une refonte fondamentale de la conception des centres de données. Meta préparerait le terrain pour plusieurs nouvelles installations massives, y compris des projets sous codenom "Prometheus" et "Hyperion". Ces « titan clusters » sont conçus pour abriter des millions de GPU et les puces propriétaires MTIA (Meta Training and Inference Accelerator) de Meta.
La transition vers du silicium personnalisé est au cœur de la stratégie de Meta Compute. En réduisant la dépendance aux fournisseurs de matériel tiers comme NVIDIA, Meta vise à contrôler sa chaîne d'approvisionnement et à optimiser la performance par watt — un indicateur critique lorsqu'on opère à l'échelle du gigawatt.
Peut-être que le défi le plus critique pour Meta Compute est l'énergie. Le réseau électrique dans son état actuel ne peut pas soutenir la densité localisée requise par des clusters d'IA à l'échelle du gigawatt. En conséquence, Meta recherche de manière agressive des solutions énergétiques indépendantes.
Des rapports du secteur indiquent que Meta a conclu des accords préliminaires avec des fournisseurs d'énergie nucléaire, notamment Vistra, TerraPower et Oklo. Ces partenariats visent à déployer des petits réacteurs modulaires (Small Modular Reactors, SMRs) directement adjacents aux sites des centres de données, créant une production d'électricité « derrière le compteur » (behind-the-meter) qui contourne les goulots d'étranglement du réseau public.
Cibles clés d'infrastructure
| Metric | Current Status (Est.) | 2030 Target | Long-Term Goal |
|---|---|---|---|
| Compute Capacity | Multi-Megawatt Clusters | Tens of Gigawatts | Hundreds of Gigawatts |
| Primary Energy Source | Grid Mix (Renewables/Fossil) | Grid + On-site Nuclear/SMRs | Sovereign Energy Independence |
| Hardware Focus | Primarily NVIDIA H100/Blackwell | Hybrid NVIDIA + Custom MTIA | Dominance of Custom Silicon |
| Investment Scale | ≈ 35–40 milliards de dollars / an (CapEx) | > 72 milliards de dollars / an | Total > 600 milliards de dollars d'ici 2035 |
Du point de vue de Creati.ai, la démarche de Meta signifie un changement dans la façon dont la valeur liée à l'IA est capturée. Durant la dernière décennie, la valeur revenait aux plateformes logicielles et aux agrégateurs. À l'ère de l'AGI (Artificial General Intelligence), la valeur se déplace vers la couche d'infrastructure — les actifs physiques nécessaires pour générer de l'intelligence.
En créant Meta Compute, Zuckerberg envoie le signal qu'il considère la puissance de calcul non pas comme une marchandise à louer auprès de fournisseurs cloud comme AWS ou Azure, mais comme un actif souverain. Cette approche d'« compute souverain » permet à Meta de :
L'ampleur même de cet investissement — censé dépasser 600 milliards de dollars au cours des prochaines années — a déstabilisé certains investisseurs. L'action de Meta a connu de la volatilité après l'annonce, reflétant les craintes que les dépenses en capital (CapEx) n'érodent les marges à court terme sans génération de revenus immédiate.
Contrairement à Microsoft ou Google, qui peuvent compenser immédiatement les coûts d'infrastructure en louant de la capacité à des clients cloud d'entreprise, Meta consomme son calcul en interne. Cela exerce une pression immense sur son activité publicitaire principale pour financer le déploiement jusqu'à ce que les flux de revenus pilotés par l'IA (tels que les agents commerciaux ou les outils créatifs avancés) mûrissent.
Cependant, la nomination de Dina Powell McCormick suggère une source de revenus secondaire potentielle : l'IA souveraine. En s'associant à des gouvernements qui souhaitent construire leurs propres modèles nationaux d'IA mais manquent d'infrastructure, Meta pourrait potentiellement louer sa capacité "Meta Compute", devenant de fait un fournisseur cloud spécialisé pour des nations plutôt que pour des entreprises.
Meta Compute est plus qu'une réorganisation ; c'est une déclaration d'intention. À mesure que la course aux armements de l'IA s'intensifie, le goulot d'étranglement passe des données et des algorithmes à l'énergie et au silicium. En s'engageant à investir des centaines de milliards pour résoudre cette contrainte physique, Meta mise l'entreprise sur la conviction que l'avenir appartient à ceux qui possèdent le générateur, et pas seulement l'ampoule. Pour l'écosystème IA au sens large, cela garantit que le rythme de montée en échelle des modèles ne ralentira pas — en fait, avec des clusters au niveau gigawatt à l'horizon, tout commence à peine.