
Le récit de la « fatigue de l'IA » qui a tourmenté le sentiment du marché ces derniers mois a été résolument démantelé. Dans une démonstration synchronisée de force financière, trois des titans de l'industrie des semi-conducteurs — Nvidia, Micron Technology et Taiwan Semiconductor Manufacturing Company (TSMC) — ont publié des résultats qui ont non seulement dépassé les estimations du consensus, mais les ont pulvérisées. La performance collective de ces baromètres de l'industrie confirme une réalité critique : l'adoption de l'Intelligence Artificielle (Artificial Intelligence) ne plafonne pas ; elle s'accélère à une vitesse que les modèles de Wall Street n'ont pas réussi à prédire.
Pour les analystes et les investisseurs qui craignaient un repli des dépenses d'investissement (capital expenditures) de la part des grands hyperscalers, les derniers chiffres trimestriels font office de correction brutale. Les données révèlent que la construction d'infrastructures nécessaire pour soutenir la prochaine génération de modèles d'IA générative (Generative AI) est loin d'être achevée. Au contraire, nous assistons au début d'une « deuxième phase » de déploiement, caractérisée par des investissements massifs dans la bande passante mémoire, une capacité de fonderie avancée et une puissance de calcul de nouvelle génération.
L'aspect le plus convaincant de cette saison des bénéfices est l'uniformité du succès à travers toute la pile matérielle de l'IA. Contrairement aux trimestres précédents où la performance était cloisonnée, ce trimestre démontre une marée montante soulevant tous les composants critiques de la chaîne d'approvisionnement — de l'atelier de fonderie (TSMC) à la mémoire à large bande passante (Micron) et aux processeurs logiques eux-mêmes (Nvidia).
Les analystes de Wall Street avaient intégré un scénario de « perfection », pourtant ces entreprises ont réussi à dépasser même ces attentes élevées. La ventilation suivante illustre l'ampleur du dépassement pour chaque entreprise, mettant en évidence l'écart entre le consensus des analystes et les chiffres réels publiés.
Performance financière vs Estimations de Wall Street
| Entreprise | Indicateur | Estimation du consensus | Réel publié | Écart |
|---|---|---|---|---|
| Nvidia | Chiffre d'affaires | 54,7 milliards $ | 57,0 milliards $ | +2,3 milliards $ |
| Nvidia | BPA (ajusté) | 1,23 $ | 1,30 $ | +0,07 $ |
| Micron | Chiffre d'affaires | 13,2 milliards $ | 13,6 milliards $ | +0,4 milliards $ |
| Micron | BPA (ajusté) | 3,77 $ | 4,78 $ | +1,01 $ |
| TSMC | Chiffre d'affaires | 33,1 milliards $ | 33,7 milliards $ | +0,6 milliards $ |
| TSMC | BPA (ADR) | 2,82 $ | 3,14 $ | +0,32 $ |
Nvidia continue de défier la loi des grands nombres. Avec un chiffre d'affaires déclaré de 57 milliards $, l'entreprise a prouvé une fois de plus que la demande pour ses plateformes de calcul accéléré surpasse l'offre. Le dépassement de 2,3 milliards $ du chiffre d'affaires est particulièrement significatif compte tenu de l'échelle massive à laquelle Nvidia opère désormais.
Le moteur de cette croissance reste le segment des centres de données (Data Center), qui est passé d'une activité matérielle à un fournisseur de plateforme complet. Alors que le marché anticipait des ventes solides, l'ampleur du dépassement suggère que la transition vers les clouds d'IA souveraine et les modèles de langage étendus (LLM) spécifiques aux entreprises se produit plus rapidement que prévu.
Principaux moteurs du trimestre de Nvidia :
Jensen Huang, PDG de Nvidia, a souligné que nous sommes dans les « premières étapes » d'un changement fondamental de l'architecture informatique, passant de la récupération polyvalente à la génération accélérée. Le BPA publié de 1,30 $ souligne la capacité de l'entreprise à maintenir des marges brutes élevées, même en augmentant la complexité de sa chaîne d'approvisionnement pour répondre à la demande.
Le résultat le plus choquant du trio provient peut-être de Micron Technology. Le fabricant de mémoire a livré ce que les analystes appellent un « coup de circuit à la Babe Ruth », avec un bénéfice par action de 4,78 $ écrasant l'estimation du consensus de 3,77 $.
Pendant des années, la mémoire était considérée comme un cycle de matières premières, sujet à des expansions et des contractions. Cependant, l'IA a fondamentalement modifié cette dynamique. La demande pour la mémoire à large bande passante (High Bandwidth Memory - HBM), spécifiquement la HBM3E, a créé un environnement de contrainte d'offre qui donne à Micron un pouvoir de fixation des prix sans précédent. Les accélérateurs d'IA modernes sont inutiles sans de vastes réserves de mémoire rapide, et Micron s'est positionné avec succès comme un catalyseur critique de cet écosystème.
Pourquoi Micron a surperformé :
Le dépassement de 1,01 $ du BPA est un indicateur clair que le « mur de la mémoire » — le goulot d'étranglement où la vitesse du processeur dépasse la vitesse de la mémoire — est le nouveau champ de bataille pour la performance de l'IA, et les clients sont prêts à payer un prix élevé pour le surmonter.
Si Nvidia est le moteur et Micron le carburant, TSMC est l'usine qui construit la machine. Les résultats de Taiwan Semiconductor Manufacturing Company ont fourni la preuve fondamentale que le boom de l'IA est structurel et non passager.
Affichant un chiffre d'affaires de 33,7 milliards $, TSMC a dépassé les attentes en grande partie grâce à la montée en puissance rapide de son nœud technologique de 3 nanomètres (3nm). Cependant, le signal le plus haussier n'était pas les bénéfices du trimestre écoulé, mais les prévisions prospectives sur les dépenses d'investissement (Capex). TSMC a annoncé une augmentation massive de son budget Capex pour 2026, visant une fourchette de 52 milliards $ à 56 milliards $.
Ce chiffre est stupéfiant. Il représente une réponse directe à la « demande confirmée » de clients majeurs comme Apple, Nvidia et AMD. TSMC ne construit pas de capacité sur la base de spéculations ; une hausse du Capex de cette ampleur implique que ses clients ont fourni des prévisions à long terme nécessitant nettement plus de capacité de plaquettes qu'il n'en existe actuellement.
Implications de la hausse du Capex de TSMC :
Les dépassements de bénéfices synchronisés de ces trois entreprises pointent vers une tendance macroéconomique plus large : l'injection massive de capitaux dans les infrastructures d'IA (AI infrastructure) par les « hyperscalers » — Alphabet, Meta, Microsoft et Amazon.
Les projections actuelles indiquent que les géants de la technologie sont en voie de dépenser environ 400 milliards $ en infrastructures d'IA rien qu'en 2026. Cette dépense n'est pas simplement destinée à la maintenance, mais constitue une conquête agressive pour la suprématie du calcul. Alphabet et Meta ont tous deux indiqué que leurs dépenses d'investissement doubleraient presque par rapport aux cycles précédents, poussées par la nécessité d'entraîner des modèles plus grands (comme Llama 4 et les successeurs de Gemini Ultra) et de servir des agents d'IA en temps réel à des milliards d'utilisateurs.
Répartition des dépenses d'infrastructure
| Catégorie | Domaine d'intervention | Principaux bénéficiaires |
|---|---|---|
| Calcul | Clusters GPU & TPU | Nvidia, Broadcom, Google (TPU) |
| Mémoire | HBM & DDR5 | Micron, SK Hynix, Samsung |
| Fabrication | Nœuds avancés (3nm/2nm) | TSMC |
| Réseautage | Interconnexions optiques & Commutateurs | Arista, Nvidia (InfiniBand/Spectrum-X) |
| Énergie | Gestion de l'énergie & Refroidissement | Vertiv, Schneider Electric |
Cette vague de 400 milliards $ aide à expliquer pourquoi les craintes de « bulle de l'IA » ne se sont pas matérialisées dans les chiffres de la chaîne d'approvisionnement. La demande est garantie par les entreprises les plus grandes et les plus riches en liquidités de la planète, qui considèrent la suprématie de l'IA comme une nécessité existentielle plutôt que comme une aventure spéculative.
Les données de février 2026 sont sans ambiguïté. Nvidia, Micron et TSMC ont fourni des preuves empiriques que l'adoption de l'intelligence artificielle s'accélère. L'écart entre les estimations conservatrices de Wall Street et les résultats explosifs des entreprises souligne une sous-estimation systémique de l'intensité des ressources de l'IA générative.
À mesure que nous avançons dans l'année 2026, l'attention se déplacera probablement de la simple demande d'« entraînement » vers la demande d'« inférence » — le coût informatique de l'exécution réelle de ces modèles pour les utilisateurs finaux. Avec TSMC coulant le béton de nouvelles usines, Micron verrouillant les commandes de HBM et Nvidia étendant sa portée logicielle, les fondations matérielles de ce futur natif de l'IA se solidifient à un rythme record. Pour les sceptiques qui s'attendent à un ralentissement, le message de l'industrie des semi-conducteurs est clair : nous ne faisons que commencer.