SK Hynix stellt HBF-Architektur vor und steigert KI‑Chip‑Leistung um das 2,69‑Fache pro Watt
SK Hynix führt die H3‑Architektur mit HBF‑Speichertechnologie ein und erzielt bis zu 2,69× bessere Leistung pro Watt für KI‑Workloads.
SK Hynix führt die H3‑Architektur mit HBF‑Speichertechnologie ein und erzielt bis zu 2,69× bessere Leistung pro Watt für KI‑Workloads.
ByteDance entwickelt kundenspezifische KI-Inferenzchips, Samsung soll bis zu 350,000 Einheiten fertigen; Musterchips werden bis März 2026 erwartet im Rahmen von Chinas Vorstoß bei KI‑Chips.
Handelsminister Howard Lutnick bestätigt, dass Nvidia strenge Leitplanken für den Verkauf von KI‑Chips nach China einhalten muss und betont das Engagement der Biden‑Administration, die technologische Führungsrolle zu bewahren und gleichzeitig nationale Sicherheitsbedenken bei Halbleiterexporten zu handhaben.
Cisco bringt das bahnbrechende G300‑Switch‑Silizium auf den Markt, das 102.4 Tbps Kapazität für KI‑Cluster liefert und eine 28% schnellere Aufgabenausführung sowie 33% höhere Netzwerkeffizienz erreicht.
Benchmark Capital verpflichtet sich zu 225 Millionen Dollar für den KI-Chiphersteller Cerebras Systems in einer Series-H-Finanzierungsrunde über 1 Milliarde Dollar und bewertet den Nvidia-Rivalen vor dem Börsengang im zweiten Quartal 2026 mit 23 Milliarden Dollar.
Die Semiconductor Industry Association prognostiziert, dass die weltweiten Chipverkäufe 2026 den historischen Meilenstein von 1 Billion US-Dollar erreichen werden, ein Anstieg von 26 % gegenüber 791,7 Milliarden US-Dollar im Jahr 2025, angetrieben durch die explosionsartige Nachfrage nach KI-Infrastruktur.
Microsoft stellt den Maia 200 KI‑Chip mit 140 Milliarden Transistoren vor, der 10 PetaFLOPS liefert, um die Kosten für KI-Inferenz im Cloud‑Maßstab zu senken.
TSMC kündigt die Produktion von 3-Nanometer-KI-Halbleitern in Japan an mit Investitionen (Capex) von 52–56 Milliarden US-Dollar für 2026 und einem Treffen mit der japanischen Premierministerin Sanae Takaichi.
Die Zahlen von AMD für das vierte Quartal 2025 weisen 390 Mio. $ aus China‑spezifischen MI308‑AI‑Chips aus; der Gesamtumsatz erreichte 10,3 Mrd. $, ein Anstieg von 34 % gegenüber dem Vorjahr vor dem Hintergrund von Exportunsicherheiten.
Intel‑CEO Lip‑Bu Tan kündigte an, dass das Unternehmen einen neuen Chefarchitekten eingestellt hat, der die GPU‑Entwicklung leiten soll, und positioniert Intel damit für den Wettbewerb im von Nvidia und AMD dominierten Markt für KI‑Beschleuniger. Tan warnte außerdem, dass Engpässe bei Speichermodulen bis 2028 andauern werden, was die Ausweitung der KI‑Infrastruktur erschwert.
Broadcom zeichnet sich als wichtiger Konkurrent von Nvidia ab, indem es maßgeschneiderte KI‑Beschleunigerchips an Tech‑Giganten wie Google, Meta und ByteDance liefert, was einen Wandel auf dem KI‑Hardware‑Markt signalisiert.
Amazons Trainium und Googles TPUs gewinnen an Bedeutung, erwirtschaften Milliarden an Umsatz und bieten großen KI‑Akteuren wie Anthropic eine tragfähige Alternative zu Nvidias Chips.
China hat seiner führenden KI-Startup DeepSeek unter Auflagen die Genehmigung erteilt, Nvidia H200 KI-Chips zu kaufen; die regulatorischen Bedingungen werden noch von der NDRC finalisiert. Es wird erwartet, dass DeepSeek Mitte Februar 2026 sein nächstes V4-Modell mit starken Programmierfähigkeiten auf den Markt bringt.
China hat die erste Charge der Nvidia H200 KI‑Chips für den Import genehmigt, die mehrere hunderttausend Einheiten umfasst und einen Wert von etwa 10 Milliarden US‑Dollar hat.
Microsoft enthüllte Maia 200, einen kundenspezifischen KI‑Chip, gefertigt im 3‑nm‑Prozess von TSMC, entwickelt, um die Abhängigkeit von Nvidia zu verringern und mit Googles TPUs und Amazons Trainium‑Prozessoren bei groß angelegten KI‑Workloads zu konkurrieren.
OpenAI hat eine wegweisende Vereinbarung über 10 Milliarden Dollar mit dem Chiphersteller Cerebras angekündigt, um bis 2028 750 Megawatt KI‑Rechenleistung bereitzustellen. Damit wird die Hardware‑Infrastruktur deutlich ausgeweitet und die Abhängigkeit von Nvidia reduziert.
In einer erheblichen Eskalation des Technologiehandelskriegs haben chinesische Behörden Berichten zufolge die Einfuhr von Nvidias H200-KI-Chips blockiert, obwohl die US-Regierung deren Export genehmigt hatte.
Elon Musk erklärte, dass Tesla einen neunmonatigen Designzyklus für seine KI-Prozessoren anstrebt — ein Tempo, das die jährliche Kadenz der Branchenführer Nvidia und AMD übertreffen würde.
Apple hat offiziell eine Partnerschaft mit Google geschlossen und das KI‑Modell Gemini integriert, um eine überarbeitete Siri anzutreiben. Dieser Schritt erfolgt, während die US‑Regierung neue 25% Zölle auf nach China verkaufte KI‑Chips verhängt, was große Akteure wie Nvidia und AMD betrifft.
Während Nvidia den AI‑Chip‑Markt dominiert, hat Wall‑Street‑Analystin Beth Kindig Micron Technology zu ihrer bevorzugten AI‑Chip‑Aktie für 2026 erklärt. Der entscheidende High‑Bandwidth‑Speicher (HBM) des Unternehmens wird zunehmend unerlässlich, um die enormen Datenanforderungen von AI‑Workloads zu bewältigen.