AI News

Die Verschiebung im Silizium: Wie Amazon und Google Nvidias KI-Hegemonie (AI Hegemony) herausfordern

In den letzten Jahren war die Erzählung der künstlichen Intelligenz-Revolution untrennbar mit einem einzigen Hardware-Anbieter verbunden: Nvidia. Seine H100- und die kommenden Blackwell-GPUs waren die Währung des KI-Bereichs — knapp, teuer und absolut unverzichtbar. Allerdings formt sich derzeit eine bedeutende Verschiebung. Bei Creati.ai beobachten wir einen Wendepunkt, an dem große Cloud-Service-Anbieter (Cloud Service Providers, CSPs) — speziell Amazon und Google — sich von bloßen Kunden zu mächtigen Wettbewerbern entwickeln.

Durch die Entwicklung kundenspezifischer Siliziumchips — Amazons Trainium und Googles Tensor Processing Units (TPUs) — verringern diese Tech-Giganten nicht nur ihre Abhängigkeit von Nvidia, sie erzielen auch Milliardenumsätze und bieten tragfähige, leistungsstarke Alternativen für Branchenführer wie Anthropic. Diese Entwicklung markiert den Beginn einer Ära heterogener Hardware, die die lange dominierende „Nvidia-Steuer“ (Nvidia tax) in der Ökonomie der KI-Infrastruktur infrage stellt.

AWS und der Aufstieg von Trainium

Amazon Web Services (AWS) verfolgt aggressiv eine Strategie der vertikalen Integration mit seiner eigenen Silizium-Produktreihe. Während das Unternehmen schon lange seine Graviton-Prozessoren für allgemeines Rechnen anbietet, hat sich der Fokus jüngst stark auf KI-spezifische Beschleunigung durch seine Trainium-(Training) und Inferentia-(Inference)-Chips verlagert.

Die Allianz mit Anthropic

Die bedeutendste Bestätigung von Amazons Hardware-Strategie kommt aus der vertieften Partnerschaft mit Anthropic. Als eines der weltweit führenden KI-Labore benötigt Anthropic enorme Rechenkapazitäten, um seine Claude-Modelle zu trainieren. Historisch gesehen hätte dies zehntausende Nvidia-GPUs erfordert. AWS hat es jedoch geschafft, seine Trainium-Chips als potente Alternative zu positionieren.

Anthropic nutzt nun AWS Trainium 2-Chips, um seine größten Foundation-Modelle zu bauen. Das ist nicht nur eine Maßnahme zur Kostensenkung; es ist eine strategische Ausrichtung. Trainium 2 ist darauf ausgelegt, bis zu viermal schnellere Trainingsleistung und doppelt so hohe Energieeffizienz im Vergleich zur ersten Generation zu liefern. Für ein Unternehmen wie Anthropic, bei dem Trainingsläufe Hunderte von Millionen Dollar kosten können, übersetzen sich die Effizienzgewinne durch kundenspezifisches Silizium direkt in einen Wettbewerbsvorteil.

Auswirkungen auf die Einnahmen

Die finanziellen Auswirkungen dieser Verschiebung sind tiefgreifend. Indem sie Workloads auf eigene Chips verlagern, behält Amazon Marge, die sonst an Nvidia geflossen wäre. Darüber hinaus macht Amazon die Chip-Entwicklung selbst zu einer Einnahmequelle. Berichten zufolge generiert AWS inzwischen Milliarden von Dollar Umsatz aus seinen kundenspezifischen AI-Chips. Dies erzeugt einen Kreislauf: Einnahmen aus der Trainium-Nutzung finanzieren weitere F&E, was zu besseren Chips führt, die wiederum mehr Kunden von Standard-GPU-Instanzen wegziehen.

Googles TPU-Reife und Ökosystem-Bindung

Während Amazon mit jüngsten Partnerschaften Wellen schlägt, war Google der Pionier kundenspezifischer KI-Siliziumlösungen. Google führte seine Tensor Processing Units (TPUs) vor fast einem Jahrzehnt ein, zunächst für den internen Gebrauch zur Unterstützung von Search, Photos und später den revolutionären Transformer-Modellen, die die moderne Generative KI (Generative AI) hervorbrachten.

Vom internen Nutzen zur Public-Cloud-Kraft

Heute sind Googles TPUs zu einer robusten Plattform gereift, die Google-Cloud-Kunden zur Verfügung steht. Die Einführung der TPUs (insbesondere der sechsten Generation, Trillium) stellt einen massiven Leistungssprung dar. Google hat erfolgreich demonstriert, dass seine Hardware die weltweit anspruchsvollsten Workloads bewältigen kann. Bemerkenswerterweise sollen Schwergewichte wie Apple Googles TPU-Infrastruktur genutzt haben, um Komponenten ihrer KI-Modelle zu trainieren, was die Zuverlässigkeit und Skalierbarkeit von Googles kundenspezifischem Silizium unterstreicht.

Der Software-Vorteil: JAX und XLA

Googles Stärke liegt nicht nur im Silizium, sondern auch im Software-Stack. Während Nvidia auf CUDA setzt, hat Google eine tiefe Integration zwischen TPUs und JAX aufgebaut, einer Python-Bibliothek, die intensiv für leistungsstarke numerische Berechnungen verwendet wird. Diese Hardware-Software-Synergie ermöglicht Optimierungen, die auf General-Purpose-GPUs schwer zu replizieren sind. Für Entwickler, die tief im Google-Ökosystem verankert sind, bringt der Wechsel zu TPUs häufig ein besseres Preis-Leistungs-Verhältnis, das Nvidias Hardware mit ihrer hohen Aufschlagsmarge nicht erreichen kann.

Das ökonomische Gebot: Warum sich der Markt verschiebt

Die Dominanz von Nvidia hat einen Flaschenhals in der KI-Lieferkette geschaffen. Die „Nvidia-Steuer“ (Nvidia tax) — die Prämie, die für ihre marktführenden GPUs gezahlt wird — drückt die Margen jedes KI-Unternehmens, von Startups bis zu Hyperscalern. Die Entscheidung von Amazon und Google, proprietäre Chips zu entwickeln, wird von drei kritischen Faktoren angetrieben:

  1. Cost Control: Kundenspezifisches Silizium ermöglicht es Cloud-Service-Anbietern, ihre Herstellungskosten zu kontrollieren und Endnutzern im Vergleich zur Miete von Nvidia-GPUs niedrigere Preise (oder für sich selbst höhere Margen) anzubieten.
  2. Supply Chain Independence: Während des Höhepunkts des KI-Booms war es nahezu unmöglich, H100s zu bekommen. Durch die Kontrolle über eigenes Chip-Design reduzieren Amazon und Google ihre Verwundbarkeit gegenüber externen Lieferengpässen.
  3. Power Efficiency: Da KI-Rechenzentren eine alarmierende Menge globaler Energie verbrauchen, können Chips, die speziell für eine einzelne Cloud-Architektur (wie Trainium oder TPU) entworfen sind, effizienter für Kühlung und Energieverbrauch optimiert werden als handelsübliche GPUs.

Vergleichende Analyse: kundenspezifisches Silizium vs. Nvidia

Um die Wettbewerbslandschaft zu verstehen, ist es wichtig, die derzeitigen Angebote dieser Tech-Giganten mit dem Industriestandard zu vergleichen.

Tabelle 1: Vergleich der KI-Hardware-Landschaft

Feature Nvidia (H100/Blackwell) AWS (Trainium 2/Inferentia) Google (TPU v5p/Trillium)
Primäre Architektur General-Purpose-GPU Kundenspezifischer ASIC (Application-Specific) Kundenspezifischer ASIC (Tensor Processing)
Software-Ökosystem CUDA (Industry Standard) AWS Neuron SDK JAX / TensorFlow / XLA
Zugänglichkeit Universell (Alle Clouds/On-prem) AWS-exklusiv Google Cloud-exklusiv
Hauptvorteil Vielseitigkeit & Entwicklervertrautheit Kosteneffizienz für AWS-Nutzer Leistung pro Watt für massives Training
Hauptnachteil Hohe Kosten & Lieferengpässe Bindung an einen Cloud-Anbieter steile Lernkurve außerhalb des Google-Ökosystems

Die Software-Barriere: Nvidias Burggraben

Trotz der beeindruckenden Hardwarespezifikationen von Trainium und TPUs behält Nvidia einen massiven defensiven Burggraben: CUDA. Die Compute Unified Device Architecture (CUDA) ist die Softwareschicht, die Entwicklern das Programmieren von GPUs ermöglicht. Sie ist seit über 15 Jahren der Industriestandard.

Die meisten Open-Source-Modelle, Bibliotheken und Forschungspapiere sind mit CUDA im Blick geschrieben. Damit Amazon und Google Nvidias Dominanz wirklich brechen, müssen sie mehr tun als schnelle Chips bauen; sie müssen das Softwareerlebnis nahtlos machen.

AWS investiert stark in sein Neuron SDK, um sicherzustellen, dass der Wechsel von einer GPU zu einer Trainium-Instanz minimale Codeänderungen erfordert. Ähnlich treibt Google XLA (Accelerated Linear Algebra) Compiler voran, um Modelle portabel zu machen. Dennoch ist Trägheit mächtig. Für viele Engineering-Teams ist das Risiko, sich von der seit langem bewährten Stabilität von Nvidia/CUDA zu entfernen und auf einen cloud-spezifischen Chip umzusteigen, nach wie vor eine erhebliche Hürde.

Ausblick: Eine fragmentierte, aber effiziente Zukunft

Die Fortschritte von Amazon und Google deuten darauf hin, dass die Zukunft der KI-Hardware kein Monopol, sondern ein Oligopol sein wird. Nvidia wird wahrscheinlich weiterhin der Goldstandard für Forschung, Entwicklung und Cloud-übergreifende Kompatibilität bleiben. Für großskalige Produktionsworkloads — wo eine Verbesserung der Marge um nur 10 % Millionen von Dollar ausmachen kann — werden kundenspezifische Chips von AWS und Google jedoch zur Standardwahl.

Bei Creati.ai erwarten wir, dass 2026 das Jahr der „Inference Economics“ wird. Während sich der Fokus vom Training riesiger Modelle auf deren Einsatz (Inference) verlagert, wird der Kosten-pro-Token zum kritischsten Kennwert. In diesem Bereich könnten die spezialisierten, stromsparenden und hocheffizienten Chips wie Inferentia und Googles neueste TPUs Nvidias stromhungrige GPUs übertreffen.

Die Chip-Kriege drehen sich nicht mehr nur darum, wer den schnellsten Prozessor hat; sie drehen sich darum, wer den gesamten Stack kontrolliert — von der Stromversorgung über das Silizium bis hin zum API-Endpunkt. Amazon und Google haben bewiesen, dass sie nicht nur Raum in der KI-Revolution mieten; sie bauen deren Fundament.

Ausgewählt