
In einem entscheidenden Moment für die Branche der künstlichen Intelligenz (artificial intelligence) hat Meta Platforms offiziell "Meta Compute" vorgestellt, eine neue Top-Level-Initiative, die darauf abzielt, die KI-Infrastruktur grundlegend zu überarbeiten und aggressiv auszubauen. Angekündigt wurde die Division vom CEO Mark Zuckerberg; sie stellt eine strategische Wende für den Social-Media-Riesen dar und verlagert den Fokus darauf, die physischen "Schienen" des nächsten technologischen Paradigmas zu besitzen. Mit Plänen, innerhalb des Jahrzehnts mehrere zehn Gigawatt Rechenleistung (compute) bereitzustellen, und Investitionen, die voraussichtlich mehrere hundert Milliarden Dollar erreichen, positioniert sich Meta, um das Fundament dessen zu bauen, was Zuckerberg als "persönliche Superintelligenz" (personal superintelligence) bezeichnet.
Die Lancierung von Meta Compute markiert eine bedeutende Umstrukturierung der internen Abläufe bei Meta. Historisch diente die Infrastruktur bei Meta den Bedürfnissen seiner Anwendungsfamilie — Facebook, Instagram und WhatsApp. Allerdings haben die exponentiellen Anforderungen an das Training und den Betrieb fortgeschrittener KI-Modelle, wie dem gemunkelten Llama 4 "Behemoth", die Notwendigkeit für eine eigene Einheit geschaffen, die sich ausschließlich auf die Skalierung der Rechenleistung (compute) konzentriert.
Mark Zuckerberg kündigte die Initiative via Beitrag auf Threads an und sagte: "How we engineer, invest, and partner to build this infrastructure will become a strategic advantage." Das Ziel ist nicht nur, mit Konkurrenten wie Google und Microsoft Schritt zu halten, sondern diese zu übertreffen, indem man Energie- und Hardware-Unabhängigkeit sichert.
Die Führungsstruktur von Meta Compute spiegelt diese hochriskante Ambition wider. Die Division wird gemeinsam geleitet von Santosh Janardhan, Metas langjährigem Head of Global Infrastructure, und Daniel Gross, dem ehemaligen CEO von Safe Superintelligence, der im Sommer 2025 zu Meta kam. Dieses Doppelspitzenmodell teilt den Fokus auf technische Umsetzung und langfristige strategische Kapazitätsplanung auf.
Meta Compute Leadership Structure
| Executive | Role | Primary Responsibilities |
|---|---|---|
| Santosh Janardhan | Co-Head, Meta Compute | Technische Architektur, kundenspezifische Siliziumchips (MTIA), Software-Stack und der tägliche Betrieb der Rechenzentrumsflotte. |
| Daniel Gross | Co-Head, Meta Compute | Langfristige Kapazitätsstrategie, Lieferantenpartnerschaften, Branchenanalyse und Geschäftsmodellierung. |
| Dina Powell McCormick | President & Vice Chairman | Souveräne und staatliche Partnerschaften, mit Schwerpunkt auf Finanzierung und regulatorischer Ausrichtung für den globalen Infrastrukturausbau. |
Die technischen Spezifikationen, die in der Ankündigung skizziert wurden, sind atemberaubend. Während derzeitige hochmoderne Rechenzentren im Bereich von Megawatt arbeiten, peilt Meta Compute "mehrere zehn Gigawatt" bis 2030 an, mit einer langfristigen Vision, Hunderte von Gigawatt zu erreichen. Zur Einordnung: Ein Gigawatt reicht ungefähr aus, um Hunderttausende von Haushalten oder eine Stadt in der Größenordnung von San Francisco mit Energie zu versorgen.
Dieser Ausbau erfordert ein grundlegendes Umdenken im Rechenzentrumsdesign. Berichten zufolge beginnt Meta mit dem Bau mehrerer massiver neuer Anlagen, darunter Projekte mit den Codenamen "Prometheus" und "Hyperion". Diese "Titan-Cluster" sind dazu gedacht, Millionen von GPUs sowie Metas proprietäre MTIA (Meta Training and Inference Accelerator)-Chips zu beherbergen.
Der Wechsel zu kundenspezifischem Silizium ist zentraler Bestandteil der Meta-Compute-Strategie. Durch die Reduzierung der Abhängigkeit von Drittanbietern wie NVIDIA will Meta seine Lieferkette kontrollieren und die Leistung pro Watt optimieren — eine kritische Kennzahl beim Betrieb im Gigawatt-Maßstab.
Vielleicht die größte Herausforderung für Meta Compute ist die Energieversorgung. Das aktuelle Stromnetz kann die lokal erforderliche Dichte für KI-Cluster im Gigawatt-Maßstab nicht stützen. Folglich verfolgt Meta aggressiv unabhängige Energielösungen.
Branchenberichte deuten darauf hin, dass Meta vorläufige Vereinbarungen mit Kernenergieanbietern getroffen hat, darunter Vistra, TerraPower und Oklo. Diese Partnerschaften zielen darauf ab, Small Modular Reactors (SMRs) direkt angrenzend an den Rechenzentrumsstandorten einzusetzen und eine "behind-the-meter"-Stromerzeugung zu schaffen, die die Engpässe des öffentlichen Netzes umgeht.
Key Infrastructure Targets
| Metric | Current Status (Est.) | 2030 Target | Long-Term Goal |
|---|---|---|---|
| Compute Capacity | Multi-Megawatt Clusters | Tens of Gigawatts | Hundreds of Gigawatts |
| Primary Energy Source | Grid Mix (Renewables/Fossil) | Grid + On-site Nuclear/SMRs | Sovereign Energy Independence |
| Hardware Focus | Primarily NVIDIA H100/Blackwell | Hybrid NVIDIA + Custom MTIA | Dominance of Custom Silicon |
| Investment Scale | ~$35-40 Billion/Year (CapEx) | >$72 Billion/Year | Total >$600 Billion by 2035 |
Aus der Perspektive von Creati.ai signalisiert Metas Schritt eine Verschiebung dessen, wie Wert im KI-Bereich erfasst wird. Im vergangenen Jahrzehnt akkumulierte Wert sich auf Softwareplattformen und Aggregatoren. In der Ära der Allgemeinen Künstlichen Intelligenz (Artificial General Intelligence, AGI) verlagert sich der Wert jedoch zur Infrastrukturebene — den physischen Vermögenswerten, die erforderlich sind, um Intelligenz zu erzeugen.
Durch die Schaffung von Meta Compute macht Zuckerberg deutlich, dass er Rechenleistung nicht als eine Ware betrachtet, die man bei Cloud-Anbietern wie AWS oder Azure mietet, sondern als ein souveränes Asset. Dieser Ansatz der "souveränen Rechenleistung" ermöglicht es Meta:
Das schiere Ausmaß dieser Investition — voraussichtlich mehr als 600 Milliarden Dollar in den nächsten Jahren — hat einige Investoren verunsichert. Metas Aktie zeigte nach der Ankündigung Volatilität, was die Befürchtung widerspiegelt, dass die Kapitalausgaben (CapEx) die Margen kurzfristig schwächen könnten, ohne sofortige Umsatzerzeugung.
Im Gegensatz zu Microsoft oder Google, die Infrastrukturkosten sofort ausgleichen können, indem sie Kapazität an Enterprise-Cloud-Kunden vermieten, nutzt Meta seine Rechenressourcen intern. Dies setzt das Kerngeschäft mit Werbung unter enormen Druck, den Ausbau zu finanzieren, bis KI-getriebene Einnahmequellen (wie Business Agents oder fortgeschrittene Kreativ-Tools) reifen.
Die Ernennung von Dina Powell McCormick deutet jedoch auf einen möglichen sekundären Umsatzstrom hin: souveräne KI. Indem Meta mit Regierungen zusammenarbeitet, die eigene nationale KI-Modelle aufbauen möchten, aber nicht über die Infrastruktur verfügen, könnte Meta seine Meta Compute-Kapazität vermieten und damit effektiv ein spezialisierter Cloud-Anbieter für Nationen statt für Unternehmen werden.
Meta Compute ist mehr als eine Reorganisation; es ist eine Absichtserklärung. Während das KI-Rüstungsrennen sich zuspitzt, verlagert sich der Engpass von Daten und Algorithmen zu Energie und Silizium. Indem Meta Hunderte von Milliarden in die Lösung dieser physischen Einschränkung investiert, setzt das Unternehmen alles auf die Überzeugung, dass die Zukunft denen gehört, die den Generator besitzen, nicht nur die Glühbirne. Für das breitere KI-Ökosystem garantiert dies, dass das Tempo der Modellskalierung nicht langsamer wird — tatsächlich fängt es mit den Gigawatt-Clustern am Horizont gerade erst an.