
Numa jogada definitiva que sinaliza a transição da inteligência artificial de um software experimental para uma infraestrutura industrial pesada, a Meta Platforms anunciou um plano de gastos de capital (CapEx) impressionante de US$ 60 bilhões a US$ 65 bilhões para o ano fiscal. O anúncio, liderado pelo CEO Mark Zuckerberg, descreve uma estratégia para construir algumas das maiores instalações de computação do mundo — incluindo um único campus de data center com uma área comparável a Manhattan — para dar suporte ao treinamento e implantação de seu modelo de próxima geração, Llama 4.
Este investimento representa uma escalada dramática na "corrida armamentista computacional" que toma conta do Vale do Silício. Ao comprometer aproximadamente o dobro de seus gastos de capital anuais anteriores, a Meta está se posicionando explicitamente não apenas como um conglomerado de redes sociais, mas como o provedor de infraestrutura fundamental para o futuro da Inteligência Artificial Geral (Artificial General Intelligence) (AGI). A escala desses gastos efetivamente define um limite, desafiando concorrentes como Google, Microsoft e OpenAI a igualar um nível de investimento que rivaliza com os orçamentos de defesa de nações soberanas.
A peça central do anúncio de Zuckerberg é a construção de um data center de hiperescala supostamente projetado para lidar com mais de 2 gigawatts (GW) de capacidade de energia. Para colocar esse valor em perspectiva, 1 GW é aproximadamente a energia necessária para abastecer 750.000 residências. Uma instalação de 2 GW não tem precedentes no setor de tecnologia comercial, exigindo acordos de energia dedicados, provavelmente envolvendo matrizes nucleares ou renováveis massivas, para funcionar sem desestabilizar as redes elétricas locais.
Zuckerberg descreveu a instalação como sendo do "tamanho de Manhattan", uma comparação que se refere não apenas à área física, mas à densidade da infraestrutura crítica. Espera-se que esta instalação abrigue uma parte significativa das 1,3 milhão de GPUs que a Meta pretende colocar em operação até o final do ano.
Este pivô de infraestrutura aborda o principal gargalo enfrentado pelo desenvolvimento da AGI: energia e densidade térmica. À medida que modelos como o Llama 4 crescem exponencialmente em contagem de parâmetros, as limitações físicas dos designs atuais de data centers — restringidas pelo resfriamento e pelo fornecimento de energia — tornaram-se evidentes. A nova instalação da Meta visa resolver isso construindo uma estrutura personalizada otimizada inteiramente para cargas de trabalho de IA de alto desempenho, em vez de computação em nuvem de uso geral.
A injeção massiva de capital está diretamente ligada às necessidades de treinamento e inferência do Llama 4, o próximo modelo de fronteira da Meta. Enquanto o Llama 3 estabeleceu um novo padrão para modelos de pesos abertos (open-weights), o Llama 4 está sendo posicionado como um mecanismo de raciocínio capaz de compreensão multimodal em uma profundidade nunca antes vista.
Analistas do setor sugerem que o Llama 4 provavelmente apresentará uma arquitetura de Mistura de Especialistas (Mixture-of-Experts - MoE) escalada para trilhões de parâmetros, exigindo os massivos clusters de GPU que a Meta está montando atualmente. O objetivo estratégico permanece claro: ao tornar o modelo de IA mais poderoso aberto (ou semiaberto), a Meta comoditiza a tecnologia central, minando os modelos de negócios proprietários de concorrentes de código fechado como OpenAI e Anthropic.
Capacidades Projetadas do Llama 4 vs. Antecessores
| Recurso/Métrica | Llama 3 (Geração Anterior) | Llama 4 (Projetado/Meta) | Impacto Estratégico |
|---|---|---|---|
| Escala de Parâmetros | 70B / 405B Denso | >1 Trilhão (MoE) | Permite raciocínio complexo e tarefas de planejamento de longo prazo. |
| Janela de Contexto | 128k Tokens | 1 Milhão+ Tokens | Permite o processamento de bases de código inteiras ou arquivos jurídicos em um único prompt. |
| Multimodalidade | Texto/Imagem separados | Omni-modal Nativo | Compreensão contínua de vídeo, áudio e texto simultaneamente. |
| Custo de Inferência | Preço padrão H100 | Otimizado para Escala | Menor custo por token para impulsionar a adoção no ecossistema Meta. |
O volume puro de hardware que a Meta está acumulando é difícil de superestimar. Ao visar um inventário de 1,3 milhão de GPUs — predominantemente NVIDIA H100s e a nova série Blackwell B200 — a Meta está garantindo um "fosso de computação" (compute moat). Na atual cadeia de suprimentos de semicondutores, as GPUs são o recurso mais escasso. Ao acumular essa capacidade, a Meta garante que seus pesquisadores tenham acesso irrestrito à computação para experimentos que podem exigir milhares de chips rodando em paralelo por semanas.
Este estoque também serve a um propósito defensivo. Mesmo que um concorrente desenvolva uma arquitetura algorítmica superior, ele pode carecer das operações de ponto flutuante por segundo (Floating-point operations per second - FLOPS) brutas necessárias para treiná-la em um prazo razoável. A estratégia da Meta baseia-se na força bruta da computação combinada com vastos conjuntos de dados derivados do Facebook, Instagram e WhatsApp.
O retorno sobre o investimento (Return on Investment - ROI) para esse gasto de US$ 65 bilhões baseia-se na adoção pelo consumidor. Zuckerberg reafirmou a meta de atender mais de 1 bilhão de usuários por meio da Meta AI. Ao contrário da Microsoft, que vende o Copilot como uma ferramenta de produtividade empresarial, ou da OpenAI, que depende de assinaturas do ChatGPT, a jogada da Meta é a ubiquidade.
Ao integrar o Llama 4 diretamente nas barras de pesquisa e interfaces de chat do WhatsApp, Messenger e Instagram, a Meta coloca seu assistente de IA diante de metade da população conectada do mundo. O data center "Manhattan" lidará com a carga de inferência para esses bilhões de consultas diárias, um feito que requer baixa latência e enorme taxa de transferência.
Os principais pilares da estratégia do consumidor incluem:
Os mercados financeiros reagiram com uma mistura de admiração e apreensão. Embora a ambição seja inegável, o preço é preocupante para investidores focados em margens de curto prazo. Um gasto de CapEx de US$ 65 bilhões reduz significativamente o fluxo de caixa livre, levantando questões sobre quando a divisão de IA se tornará um gerador de receita independente em vez de um centro de custo.
No entanto, do ponto de vista tecnológico, os analistas da Creati.ai veem isso como uma evolução necessária. A era de treinar modelos de fronteira em capacidade "sobressalente" acabou. Entramos na fase de fundições de IA especializadas em escala de gigawatts. A disposição da Meta em queimar capital agora pode garantir sua posição como o sistema operacional da era da IA, assim como a Microsoft dominou a era do PC e o Google dominou a web.
À medida que 2026 avança, a indústria observará a construção nos EUA — e o lançamento do Llama 4 — como o verdadeiro teste de fogo para saber se esta aposta massiva em silício e aço renderá a inteligência digital que Zuckerberg promete.