
En un movimiento definitivo que señala la transición de la inteligencia artificial de un software experimental a una infraestructura industrial pesada, Meta Platforms ha anunciado un asombroso plan de gasto de capital de entre 60.000 y 65.000 millones de dólares para el año fiscal. El anuncio, liderado por el CEO Mark Zuckerberg, esboza una estrategia para construir algunas de las instalaciones de computación más grandes del mundo —incluyendo un único campus de centro de datos con una superficie comparable a la de Manhattan— para respaldar el entrenamiento y despliegue de su modelo de próxima generación, Llama 4.
Esta inversión representa una escalada dramática en la "carrera armamentista de cómputo" que sacude a Silicon Valley. Al comprometer aproximadamente el doble de sus gastos de capital anuales anteriores, Meta se está posicionando explícitamente no solo como un conglomerado de redes sociales, sino como el proveedor de infraestructura fundamental para el futuro de la Inteligencia Artificial General (Artificial General Intelligence, AGI). La escala de este gasto traza efectivamente una línea en la arena, desafiando a competidores como Google, Microsoft y OpenAI a igualar un nivel de inversión que rivaliza con los presupuestos de defensa de naciones soberanas.
La pieza central del anuncio de Zuckerberg es la construcción de un centro de datos de hiperescala diseñado, según se informa, para manejar más de 2 gigavatios (GW) de capacidad de potencia. Para poner esta cifra en perspectiva, 1 GW es aproximadamente la energía necesaria para alimentar 750.000 hogares. Una instalación de 2 GW no tiene precedentes en el sector tecnológico comercial, requiriendo acuerdos de energía dedicados, que probablemente involucren energía nuclear o enormes arreglos renovables, para funcionar sin desestabilizar las redes eléctricas locales.
Zuckerberg describió la instalación como de "tamaño Manhattan", una comparación que se refiere no solo a la superficie física, sino a la densidad de la infraestructura crítica. Se espera que esta instalación albergue una parte significativa de los 1,3 millones de unidades de procesamiento gráfico (Graphics Processing Units, GPU) que Meta pretende poner en funcionamiento para finales de año.
Este giro en la infraestructura aborda el principal cuello de botella que enfrenta el desarrollo de la AGI: la energía y la densidad térmica. A medida que modelos como Llama 4 crecen exponencialmente en recuento de parámetros, las limitaciones físicas de los diseños actuales de centros de datos —restringidos por la refrigeración y el suministro de energía— se han hecho evidentes. La nueva instalación de Meta tiene como objetivo resolver esto mediante la construcción de un stack personalizado optimizado totalmente para cargas de trabajo de IA de alto rendimiento en lugar de computación en la nube de propósito general.
La masiva inyección de capital está directamente ligada a las necesidades de entrenamiento e inferencia de Llama 4, el próximo modelo de frontera de Meta. Mientras que Llama 3 estableció un nuevo estándar para los modelos de pesos abiertos, Llama 4 se está posicionando como un motor de razonamiento capaz de comprensión multimodal a una profundidad nunca antes vista.
Los analistas de la industria sugieren que Llama 4 probablemente presentará una arquitectura de Mezcla de Expertos (Mixture-of-Experts, MoE) escalada a billones de parámetros, lo que requerirá los masivos clústeres de GPU que Meta está ensamblando actualmente. El objetivo estratégico sigue siendo claro: al hacer que el modelo de IA más potente sea abierto (o semiabierto), Meta mercantiliza la tecnología central, socavando los modelos de negocio propietarios de competidores de código cerrado como OpenAI y Anthropic.
Capacidades proyectadas de Llama 4 frente a sus predecesores
| Característica/Métrica | Llama 3 (Gen anterior) | Llama 4 (Proyectado/Objetivo) | Impacto estratégico |
|---|---|---|---|
| Escala de parámetros | 70B / 405B Denso | >1 Billón (MoE) | Permite razonamiento complejo y tareas de planificación de largo horizonte. |
| Ventana de contexto | 128k Tokens | 1 Millón+ Tokens | Permite procesar bases de código completas o archivos legales en un solo prompt. |
| Multimodalidad | Texto/Imagen por separado | Omnimodal nativo | Comprensión fluida de video, audio y texto simultáneamente. |
| Costo de inferencia | Precios estándar de H100 | Optimizado para escala | Menor costo por token para impulsar la adopción en el ecosistema de Meta. |
El volumen puro de hardware que Meta está acumulando es difícil de exagerar. Al apuntar a un inventario de 1,3 millones de GPU —predominantemente NVIDIA H100 y la serie más nueva Blackwell B200— Meta está asegurando un "foso de cómputo". En la cadena de suministro de semiconductores actual, las GPU son el recurso más escaso. Al acaparar esta capacidad, Meta garantiza que sus investigadores tengan acceso sin restricciones al cómputo para experimentos que podrían requerir miles de chips funcionando en paralelo durante semanas.
Esta reserva también sirve para un propósito defensivo. Incluso si un competidor desarrolla una arquitectura algorítmica superior, podría carecer de las operaciones de punto flotante por segundo (Floating-point Operations Per Second, FLOPS) brutas requeridas para entrenarla en un plazo razonable. La estrategia de Meta se basa en la fuerza bruta del cómputo combinada con vastos conjuntos de datos derivados de Facebook, Instagram y WhatsApp.
El retorno de la inversión (Return on Investment, ROI) para este gasto de 65.000 millones de dólares se basa en la adopción por parte de los consumidores. Zuckerberg reafirmó el objetivo de servir a más de 1.000 millones de usuarios a través de Meta AI. A diferencia de Microsoft, que vende Copilot como una herramienta de productividad empresarial, o de OpenAI, que depende de las suscripciones a ChatGPT, la jugada de Meta es la ubicuidad.
Al integrar Llama 4 directamente en las barras de búsqueda e interfaces de chat de WhatsApp, Messenger e Instagram, Meta coloca su asistente de IA frente a la mitad de la población conectada del mundo. El centro de datos "Manhattan" manejará la carga de inferencia para estos miles de millones de consultas diarias, una hazaña que requiere baja latencia y un rendimiento masivo.
Los pilares clave de la estrategia de consumo incluyen:
Los mercados financieros han reaccionado con una mezcla de asombro y temor. Si bien la ambición es innegable, el precio preocupa a los inversores centrados en los márgenes a corto plazo. Un gasto de capital (Capital Expenditure, CaPex) de 65.000 millones de dólares deprime significativamente el flujo de caja libre, planteando preguntas sobre cuándo la división de IA se convertirá en un generador de ingresos independiente en lugar de un centro de costos.
Sin embargo, desde un punto de vista tecnológico, los analistas de Creati.ai ven esto como una evolución necesaria. La era de entrenar modelos de frontera en capacidad "sobrante" ha terminado. Hemos entrado en la fase de fundiciones de IA especializadas a escala de gigavatios. La disposición de Meta a quemar capital ahora puede asegurar su posición como el sistema operativo de la era de la IA, de la misma manera que Microsoft dominó la era de la PC y Google dominó la web.
A medida que avance 2026, la industria estará atenta a la construcción en los EE. UU. —y al lanzamiento de Llama 4— como la verdadera prueba de fuego de si esta apuesta masiva en silicio y acero producirá la inteligencia digital que Zuckerberg promete.