
Dans une démarche décisive qui signale la transition de l'intelligence artificielle de logiciel expérimental à infrastructure industrielle lourde, Meta Platforms a annoncé un plan de dépenses en capital faramineux de 60 à 65 milliards de dollars pour l'exercice fiscal. L'annonce, menée par le PDG Mark Zuckerberg, trace une stratégie visant à construire certaines des plus grandes installations informatiques au monde — y compris un campus de centres de données unique avec une empreinte comparable à Manhattan — pour soutenir l'entraînement et le déploiement de son modèle de nouvelle génération, Llama 4.
Cet investissement représente une escalade spectaculaire dans la « course aux armements informatiques » qui s'empare de la Silicon Valley. En engageant environ le double de ses dépenses en capital annuelles précédentes, Meta se positionne explicitement non seulement comme un conglomérat de médias sociaux, mais comme le fournisseur d'infrastructure fondamental pour l'avenir de l'intelligence artificielle générale (Artificial General Intelligence — AGI). L'ampleur de ces dépenses trace effectivement une ligne rouge, mettant au défi des concurrents comme Google, Microsoft et OpenAI d'égaler un niveau d'investissement qui rivalise avec les budgets de défense de nations souveraines.
La pièce maîtresse de l'annonce de Zuckerberg est la construction d'un centre de données à hyper-échelle prétendument conçu pour gérer une capacité électrique de plus de 2 gigawatts (GW). Pour mettre ce chiffre en perspective, 1 GW correspond approximativement à l'énergie nécessaire pour alimenter 750 000 foyers. Une installation de 2 GW est sans précédent dans le secteur technologique commercial, nécessitant des accords énergétiques dédiés, impliquant probablement du nucléaire ou de vastes parcs d'énergies renouvelables, pour fonctionner sans déstabiliser les réseaux électriques locaux.
Zuckerberg a décrit l'installation comme étant « de la taille de Manhattan », une comparaison qui ne se réfère pas seulement à la superficie physique mais à la densité de l'infrastructure critique. Cette installation devrait abriter une partie importante des 1,3 million de GPU (Graphics Processing Units) que Meta a l'intention de mettre en service d'ici la fin de l'année.
Ce pivot d'infrastructure répond au principal goulot d'étranglement auquel est confronté le développement de l'AGI : l'énergie et la densité thermique. Alors que des modèles comme Llama 4 croissent de manière exponentielle en nombre de paramètres, les limitations physiques des conceptions actuelles de centres de données — contraintes par le refroidissement et la distribution d'énergie — sont devenues apparentes. La nouvelle installation de Meta vise à résoudre ce problème en construisant une pile personnalisée entièrement optimisée pour les charges de travail d'IA haute performance plutôt que pour le cloud computing à usage général.
L'injection massive de capitaux est directement liée aux besoins d'entraînement et d'inférence de Llama 4, le futur modèle de pointe de Meta. Alors que Llama 3 a établi une nouvelle norme pour les modèles à poids ouverts (open-weights), Llama 4 est positionné comme un moteur de raisonnement capable d'une compréhension multimodale à une profondeur jamais vue auparavant.
Les analystes du secteur suggèrent que Llama 4 présentera probablement une architecture de mélange d'experts (Mixture-of-Experts — MoE) mise à l'échelle à des billions de paramètres, nécessitant les clusters de GPU massifs que Meta assemble actuellement. L'objectif stratégique reste clair : en rendant le modèle d'IA le plus puissant ouvert (ou semi-ouvert), Meta marchandise la technologie de base, sapant les modèles commerciaux propriétaires des concurrents à source fermée comme OpenAI et Anthropic.
Capacités projetées de Llama 4 par rapport à ses prédécesseurs
| Caractéristique/Indicateur | Llama 3 (Génération précédente) | Llama 4 (Projeté/Cible) | Impact stratégique |
|---|---|---|---|
| Échelle des paramètres | 70B / 405B Dense | > 1 billion (MoE) | Permet un raisonnement complexe et des tâches de planification à long terme. |
| Fenêtre de contexte | 128k Tokens | 1 million+ de Tokens | Permet de traiter des bases de code entières ou des archives juridiques en une seule commande. |
| Multimodalité | Texte/Image séparés | Omni-modal natif | Compréhension fluide de la vidéo, de l'audio et du texte simultanément. |
| Coût d'inférence | Tarification H100 standard | Optimisé pour l'échelle | Coût par jeton réduit pour favoriser l'adoption dans l'écosystème Meta. |
Le volume pur de matériel que Meta amasse est difficile à surestimer. En ciblant un inventaire de 1,3 million de GPU — principalement des NVIDIA H100 et la nouvelle série Blackwell B200 — Meta sécurise un « fossé informatique ». Dans la chaîne d'approvisionnement actuelle des semi-conducteurs, les GPU sont la ressource la plus rare. En accumulant cette capacité, Meta s'assure que ses chercheurs ont un accès sans contrainte au calcul pour des expériences qui pourraient nécessiter des milliers de puces fonctionnant en parallèle pendant des semaines.
Ce stock sert également un objectif défensif. Même si un concurrent développe une architecture algorithmique supérieure, il pourrait manquer de la puissance brute en opérations en virgule flottante par seconde (Floating-point Operations Per Second — FLOPS) nécessaire pour l'entraîner dans un délai raisonnable. La stratégie de Meta repose sur la force brute du calcul combinée à de vastes ensembles de données dérivés de Facebook, Instagram et WhatsApp.
Le retour sur investissement (ROI) de cette dépense de 65 milliards de dollars est fondé sur l'adoption par les consommateurs. Zuckerberg a réaffirmé l'objectif de servir plus d'un milliard d'utilisateurs via Meta AI. Contrairement à Microsoft, qui vend Copilot comme un outil de productivité en entreprise, ou OpenAI, qui s'appuie sur les abonnements ChatGPT, le pari de Meta est l'ubiquité.
En intégrant Llama 4 directement dans les barres de recherche et les interfaces de discussion de WhatsApp, Messenger et Instagram, Meta place son assistant IA devant la moitié de la population connectée au monde. Le centre de données « Manhattan » gérera la charge d'inférence pour ces milliards de requêtes quotidiennes, un exploit qui nécessite une faible latence et un débit massif.
Les piliers clés de la stratégie grand public incluent :
Les marchés financiers ont réagi avec un mélange d'admiration et d'appréhension. Bien que l'ambition soit indéniable, le prix est préoccupant pour les investisseurs focalisés sur les marges à court terme. Une dépense CaPex de 65 milliards de dollars réduit considérablement le flux de trésorerie disponible (free cash flow), soulevant des questions sur le moment où la division IA deviendra un générateur de revenus autonome plutôt qu'un centre de coûts.
Cependant, d'un point de vue technologique, les analystes de Creati.ai considèrent cela comme une évolution nécessaire. L'ère de l'entraînement des modèles de pointe sur des capacités « de réserve » est révolue. Nous sommes entrés dans la phase des fonderies d'IA spécialisées à l'échelle du gigawatt. La volonté de Meta de brûler du capital maintenant pourrait sécuriser sa position en tant que système d'exploitation de l'ère de l'IA, tout comme Microsoft a dominé l'ère du PC et Google a dominé le Web.
À mesure que 2026 progresse, l'industrie surveillera la construction aux États-Unis — et la sortie de Llama 4 — comme le véritable test décisif pour savoir si ce pari massif sur le silicium et l'acier produira l'intelligence numérique promise par Zuckerberg.