AI News

ByteDance beschleunigt Ambitionen für eigene Chips in strategischen Gesprächen mit Samsung

In einem bedeutenden Schritt hin zur technologischen Unabhängigkeit befindet sich ByteDance, die Muttergesellschaft von TikTok und Douyin, Berichten zufolge in fortgeschrittenen Verhandlungen mit Samsung Electronics über die Herstellung eigener maßgeschneiderter KI-Chips (Custom AI Chips). Dieser strategische Wendepunkt markiert eine entscheidende Entwicklung in der Infrastrukturplanung des chinesischen Tech-Giganten, der angesichts knapper werdender globaler Lieferketten und geopolitischer Beschränkungen eine stabile Versorgung mit fortschrittlichen Prozessoren sicherstellen will.

Jüngsten Branchenberichten zufolge plant ByteDance die Produktion von bis zu 350.000 Einheiten seiner proprietären KI-Inferenz-Chips (AI Inference Chips), wobei technische Muster bereits im März 2026 geliefert werden sollen. Im Falle eines Erfolgs könnte diese Partnerschaft die Abhängigkeit von ByteDance von externen Anbietern wie Nvidia erheblich verringern und die Wettbewerbslandschaft der Halbleiternutzung für Künstliche Intelligenz (Generative AI) unter Chinas Internet-Giganten neu gestalten.

Der Fertigungspakt: Samsung als Foundry-Partner

Die Zusammenarbeit konzentriert sich auf die Produktion von Chips, die speziell für KI-Inferenz-Workloads (AI Inference Workloads) entwickelt wurden – den Prozess des Ausführens von Live-Daten durch trainierte KI-Modelle, um Vorhersagen oder Empfehlungen zu generieren. Während ByteDance in der Vergangenheit sowohl für das Training als auch für die Inferenz auf GPUs von Nvidia angewiesen war, erfordert das enorme Ausmaß seiner Empfehlungsalgorithmen für Plattformen wie TikTok massive, spezialisierte Rechenleistung, die Allzweck-GPUs weniger effizient verarbeiten.

Der berichtete Deal skizziert einen phasenweisen Produktionszeitplan:

  • Initialphase: ByteDance strebt die Sicherung technischer Muster bis Ende März 2026 an.
  • Massenproduktion: Das Unternehmen strebt eine anfängliche Produktion von 100.000 Einheiten innerhalb des laufenden Jahres an.
  • Langfristige Skalierung: Die Produktionskapazität soll im Laufe der Zeit auf 350.000 Einheiten skaliert werden, was ein bedeutendes Bekenntnis zu interner Hardware signalisiert.

Entscheidend ist, dass sich die Verhandlungen Berichten zufolge über die Herstellung von Logikchips hinaus auf die Lieferung von High Bandwidth Memory (HBM) erstrecken. Da der globale KI-Boom zu einem massiven Engpass bei der Speicherverfügbarkeit führt, ist die Sicherung eines direkten Zugangs zum Speicherinventar von Samsung wahrscheinlich ein ausschlaggebender Faktor für die Partnerwahl von ByteDance. Samsung, das sowohl als führende Foundry als auch als erstklassiger Speicherhersteller einzigartig positioniert ist, bietet eine „Turnkey“-Lösung an, die andere Foundries nicht ohne Weiteres erreichen können.

Von Algorithmen zu Silizium: Der Wechsel zur Inferenz

Um die Bedeutung dieser Entwicklung zu verstehen, ist es wichtig, zwischen den beiden Kernphasen von KI-Workloads zu unterscheiden: Training und Inferenz.

  • Training: Beinhaltet das Füttern eines Modells mit massiven Datensätzen, um es zu „lehren“. Dies erfordert immense, rohe Rechenleistung (oft Nvidia H100/A100-Cluster).
  • Inferenz: Beinhaltet das eingesetzte Modell, das Echtzeitentscheidungen trifft (z. B. „Welches Video soll dieser Nutzer als Nächstes sehen?“). Dies erfordert geringe Latenzzeiten und hohe Energieeffizienz.

Für eine verbraucherorientierte Plattform wie TikTok stellen die Inferenzkosten oft die Trainingskosten in den Schatten, da Milliarden von täglich aktiven Nutzern sofortige Empfehlungen benötigen. Durch das Design eigener Chips (Custom Silicon), die ausschließlich für die spezifischen Empfehlungsarchitekturen optimiert sind, kann ByteDance theoretisch eine höhere Leistung pro Watt erzielen als bei der Verwendung kommerzieller Standard-GPUs.

Vergleich der KI-Workload-Anforderungen

Merkmal KI-Training KI-Inferenz
Primäres Ziel Aufbau der Modellintelligenz Ausführung des Modells in Echtzeit
Rechenintensität Extrem hoch (Batch-Verarbeitung) Moderat (Geringe Latenz erforderlich)
Hardware-Fokus Rohe FLOPS, Speicherbandbreite Effizienz, Antwortzeit, Kosten
ByteDance-Kontext Entwicklung von LLMs (Doubao) Bereitstellung von TikTok/Douyin-Feeds

Den geopolitischen Drahtseilakt meistern

Das Bestreben von ByteDance nach eigenen Chips (Custom Silicon) ist nicht nur eine technische Optimierung; es ist eine strategische Notwendigkeit, die aus geopolitischen Spannungen resultiert. Die Vereinigten Staaten haben eine Reihe strenger Exportkontrollen verhängt, die den Verkauf von hochmodernen KI-Beschleunigern (wie Nvidias H100 und sogar der herabgestuften H20) an chinesische Unternehmen einschränken.

Während Inferenz-Chips im Allgemeinen weniger Rechenleistung benötigen als Trainings-Chips – was es potenziell ermöglicht, sie auf etwas älteren, nicht eingeschränkten Prozessknoten (wie 5nm oder 7nm) herzustellen –, bleibt die Lieferkette anfällig. Durch das Design eigener Chips und die Partnerschaft mit Samsung (einem südkoreanischen Unternehmen) versucht ByteDance, seine Lieferkettenrisiken zu diversifizieren. Samsung ist zwar konform mit US-Vorschriften, bietet aber eine lebenswichtige Alternative zu TSMC, das derzeit aufgrund der Nachfrage von Apple, Nvidia und AMD an der Kapazitätsgrenze arbeitet.

Die breitere Landschaft: Chinas Tech-Giganten werden vertikal

ByteDance ist mit diesem Vorhaben nicht allein. Der Trend der „Vertikalen Integration“ (Vertical Integration) – bei der Softwareunternehmen ihre eigene Hardware entwerfen – ist zum Standard für globale Tech-Giganten geworden. Amazon (AWS Inferentia), Google (TPU) und Microsoft (Maia) haben diesen Weg längst eingeschlagen. In China wird die Dringlichkeit durch Sanktionen noch verstärkt.

Status der internen Chipentwicklung bei chinesischen Tech-Giganten

Unternehmen Fokus des Chipprojekts Strategisches Ziel Wichtigste Herausforderungen
ByteDance KI-Inferenz-Chips Optimierung von Empfehlungs-Engines (TikTok/Douyin) Fehlende Hardware-DNA; Samsung Yield-Raten
Alibaba Yitian (CPU) & Hanguang (NPU) Effizienz der Cloud-Infrastruktur (AliCloud) Zugang zu fortschrittlichen Foundry-Knoten (TSMC/Arm)
Tencent Zixiao (KI-Inferenz) Interne Videoverarbeitung & KI-Dienste Integration des Software-Stacks
Baidu Kunlun (KI allgemein) Unterstützung von Ernie Bot & autonomem Fahren Ökosystem-Adaption außerhalb von Baidu

Herausforderungen und offizielle Reaktionen

Trotz der optimistischen Ziele ist der Weg zu eigenen Chips voller Herausforderungen. Halbleiterdesign ist notorisch kapitalintensiv und verzeiht keine Fehler. Ein Fehler in der Architektur oder ein Versagen im Herstellungsprozess (Yield-Rate) kann zu Verzögerungen in Millionenhöhe führen. Darüber hinaus wird der Aufbau eines Software-Stacks, der es den Entwicklern von ByteDance ermöglicht, ihren Code nahtlos von Nvidias CUDA-Plattform auf die neuen maßgeschneiderten Chips zu portieren, eine monumentale technische Aufgabe sein.

Auf Anfrage nach einer Stellungnahme zu diesen Berichten erklärte ByteDance, dass die Informationen bezüglich seines internen Chipprojekts „ungenau“ seien, ohne spezifische Korrekturen vorzunehmen. Samsung Electronics lehnte einen Kommentar ab. Solche Dementis sind in der Halbleiterindustrie während aktiver Verhandlungsphasen Standard und dienen oft dazu, Geschäftsgeheimnisse zu schützen oder die Erwartungen des Aktienmarktes zu steuern.

Fazit: Ein reifendes KI-Ökosystem

Wenn es ByteDance gelingt, 350.000 maßgeschneiderte Inferenz-Chips einzusetzen, wird dies einen Wendepunkt für das Unternehmen markieren und es von einem reinen Software-Algorithmus-Führer in ein vertikal integriertes KI-Kraftzentrum verwandeln. Dieser Schritt würde das Unternehmen nicht nur vor einigen geopolitischen Schocks schützen, sondern auch die Betriebskosten für den Betrieb der weltweit beliebtesten Video-App drastisch senken. Während der März 2026 näher rückt, wird die Branche genau beobachten, ob die ersten Silizium-Muster ihr Versprechen einlösen können.

Ausgewählt