SK Hynix revela arquitetura HBF que aumenta o desempenho de chips de IA em 2,69× por watt
SK Hynix introduz a arquitetura H3 com a tecnologia de memória HBF, alcançando até 2,69× de melhoria no desempenho por watt para cargas de trabalho de IA.
SK Hynix introduz a arquitetura H3 com a tecnologia de memória HBF, alcançando até 2,69× de melhoria no desempenho por watt para cargas de trabalho de IA.
A ByteDance está desenvolvendo chips de inferência de IA personalizados, com a Samsung fabricando até 350,000 unidades, esperando amostras de chips até março de 2026 como parte do impulso da China por chips de IA.
O Secretário de Comércio Howard Lutnick confirma que a Nvidia deve aderir a rígidos limites em torno das vendas de chips de IA para a China, enfatizando o compromisso da administração Biden em manter a liderança tecnológica enquanto gerencia preocupações de segurança nacional nas exportações de semicondutores.
A Cisco lança o inovador silício de switch G300, oferecendo capacidade de 102.4 Tbps para clusters de IA, alcançando conclusão de tarefas 28% mais rápida e ganhos de eficiência de rede de 33%.
Benchmark Capital compromete 225 milhões de dólares com a fabricante de chips de IA Cerebras Systems numa rodada Série H de US$1 bilhão, avaliando a rival da Nvidia em US$23 bilhões antes do IPO no segundo trimestre de 2026.
A Semiconductor Industry Association prevê que as vendas globais de chips alcançarão o histórico marco de US$1 trilhão em 2026, um aumento de 26% em relação aos US$791,7 bilhões de 2025, impulsionado pela explosiva demanda por infraestrutura de IA.
A Microsoft lança o chip de IA Maia 200 com 140 bilhões de transistores, oferecendo 10 petaFLOPS para reduzir os custos de inferência de IA em escala de nuvem.
A TSMC anuncia a produção de semicondutores de IA em 3 nanómetros no Japão com CAPEX de US$52–56 bilhões para 2026, em encontro com a primeira‑ministra japonesa Sanae Takaichi.
Os resultados do 4.º trimestre de 2025 da AMD mostram $390M provenientes dos chips de IA MI308 específicos para a China, enquanto a receita total atingiu $10,3B, um aumento de 34% ano a ano em meio a incertezas nas exportações.
O CEO da Intel, Lip‑Bu Tan, anunciou que a empresa contratou um novo arquiteto chefe para liderar o desenvolvimento de GPUs, posicionando a Intel para competir no mercado de aceleradores de IA dominado pela Nvidia e pela AMD. Tan também alertou que a escassez de chips de memória persistirá até 2028, criando desafios para a expansão da infraestrutura de IA.
A Broadcom está a emergir como um concorrente importante da Nvidia ao fornecer chips aceleradores de IA personalizados a gigantes tecnológicos como Google, Meta e ByteDance, sinalizando uma mudança no mercado de hardware de IA.
O Trainium da Amazon e as TPUs do Google estão ganhando terreno, gerando bilhões em receitas e oferecendo uma alternativa viável aos chips da Nvidia para grandes players de IA como a Anthropic.
A China concedeu aprovação condicional para que sua principal startup de IA, a DeepSeek, adquira os chips de inteligência artificial H200 da Nvidia, com as condições regulatórias ainda sendo finalizadas pela NDRC. Espera-se que a DeepSeek lance seu modelo de próxima geração V4, com fortes capacidades de codificação, em meados de fevereiro de 2026.
A China aprovou o primeiro lote de chips AI H200 da Nvidia para importação, abrangendo várias centenas de milhares de unidades com valor aproximado de 10 bilhões de dólares.
A Microsoft revelou o Maia 200, um chip de IA personalizado fabricado no processo de 3 nm da TSMC, projetado para reduzir a dependência da Nvidia e competir com as TPUs do Google e os processadores Trainium da Amazon para cargas de trabalho de IA em larga escala.
A OpenAI anunciou um acordo histórico de US$10 bilhões com a fabricante de chips Cerebras para implantar 750 megawatts de capacidade de computação de IA até 2028, ampliando significativamente sua infraestrutura de hardware e reduzindo sua dependência da Nvidia.
Em uma escalada significativa da guerra comercial tecnológica, autoridades chinesas teriam bloqueado as importações dos chips de IA H200 da Nvidia, apesar de o governo dos EUA tê-los autorizado para exportação.
Elon Musk anunciou que a Tesla está mirando um ciclo de design de nove meses para seus processadores de IA, um ritmo que superaria a cadência anual de líderes do setor como Nvidia e AMD.
A Apple fez parceria oficialmente com o Google, integrando o modelo de IA Gemini para alimentar uma Siri reformulada. Essa medida ocorre enquanto o governo dos EUA impõe novas tarifas de 25% sobre chips de IA vendidos para a China, afetando grandes nomes como Nvidia e AMD.
Embora a Nvidia domine o mercado de chips de IA, a analista de Wall Street Beth Kindig nomeou a Micron Technology como sua principal escolha de ação de chips de IA para 2026. A memória de alta largura de banda (HBM) crítica da empresa está se tornando essencial para lidar com as enormes demandas de dados das cargas de trabalho de IA.