AI News

L'« année du Cheval » en Chine débute par une course aux armements dans l'IA

Alors que des millions de personnes à travers la Chine se préparent pour les festivités du Nouvel An lunaire, le secteur technologique du pays a déclenché une vague frénétique de lancements d'intelligence artificielle (IA), transformant la période des fêtes en un champ de bataille pour la domination de l'IA générative (Generative AI). Dans une offensive coordonnée que les observateurs appellent le « Printemps de l'Océan Rouge » (Red Ocean Spring), des acteurs majeurs tels qu'Alibaba, ByteDance et Zhipu AI ont déployé des mises à niveau importantes de leurs modèles de manière quasi simultanée.

La rafale d'annonces, culminant le 17 février 2026 — le premier jour de l'année du Cheval — signale un changement pivot dans l'industrie. L'accent s'est résolument déplacé au-delà des simples chatbots vers des flux de travail « agentiques » (agentic workflows), des fenêtres de contexte massives et des guerres de prix agressives conçues pour casser les prix par rapport aux concurrents occidentaux comme OpenAI et Google. En tête de file se trouve le très attendu DeepSeek V4, aux côtés du robuste Qwen 3.5 d'Alibaba, de Doubao 2.0 de ByteDance axé sur le grand public, et du GLM-5 de Zhipu, entraîné localement.

DeepSeek V4 : Le perturbateur de l'efficacité

C'est peut-être le lancement le plus surveillé du trimestre. Après le succès de son prédécesseur qui a secoué le marché et provoqué une volatilité boursière mondiale début 2025, DeepSeek a misé double sur sa réputation d'efficacité extrême. Bien que les documents techniques officiels soient encore en cours d'analyse par la communauté, les premiers détails suggèrent que V4 introduit une architecture inédite d'hyper-connexions contraintes par variétés (Manifold-Constrained Hyper-Connections - mHC).

Ce changement architectural permettrait au modèle de maintenir une cohérence sur des fenêtres de contexte dépassant le million de tokens sans la pénalité de calcul habituellement associée à une telle échelle. Des fuites de l'industrie indiquent que DeepSeek V4 vise une structure de coûts environ 1/20ème de celle des équivalents de GPT-4, un mouvement susceptible de forcer un nouveau cycle de corrections de prix sur le marché mondial des API.

La stratégie de DeepSeek reste claire : offrir des capacités de raisonnement et de codage de « classe GPT-5 » à un prix qui rend économiquement viable le déploiement généralisé d'agents automatisés. L'inclusion de la « mémoire conditionnelle d'engramme » (Engram Conditional Memory), une technique de rétention sélective d'informations, suggère que le modèle est spécifiquement optimisé pour les tâches complexes de développement logiciel en plusieurs étapes.

Alibaba Qwen 3.5 : Le « système d'exploitation » d'entreprise

Pour ne pas être en reste, Alibaba Cloud a officiellement lancé Qwen 3.5, le décrivant comme une « évolution majeure » dans sa quête pour devenir le système d'exploitation de l'ère de l'IA. La famille Qwen 3.5 s'appuie sur les capacités multimodales de la série 2.5, affichant des gains significatifs en raisonnement visuel et en suivi d'instructions complexes.

L'offre d'Alibaba met l'accent sur la stabilité et l'intégration. Contrairement à la nature expérimentale de certains concurrents, Qwen 3.5 est positionné comme le choix sûr et évolutif pour l'entreprise. Le modèle présente un support amélioré pour l'« appel de fonctions » (function calling) — la capacité de l'IA à s'interfacer avec des outils logiciels externes — ce qui est critique pour l'automatisation des processus métier.

« À l'avenir, les grands modèles d'IA seront profondément intégrés dans une large gamme d'appareils », a déclaré la direction d'Alibaba Cloud lors du lancement. En rendant open source des parties substantielles de la suite Qwen 3.5, Alibaba continue de consolider son écosystème comme la norme par défaut pour les développeurs qui préfèrent des fondations non propriétaires.

ByteDance Doubao 2.0 : L'ère des agents pour les consommateurs

ByteDance, la société mère de TikTok, est officiellement entrée dans l'« ère des agents » avec Doubao 2.0. Lancé quelques jours avant les vacances, ce modèle alimente l'application d'IA la plus populaire de Chine et représente une refonte architecturale majeure connue sous le nom de « Doubao-Seed-2.0 ».

L'objectif de Doubao 2.0 est distinct : l'exécution autonome de tâches. Plutôt que de simplement répondre aux requêtes des utilisateurs, le modèle est conçu pour exécuter des flux de travail en plusieurs étapes, comme la planification d'un itinéraire de voyage avec réservation de billets, ou la recherche d'un sujet avec génération d'un rapport formaté. ByteDance a publié le modèle en plusieurs tailles, notamment Pro, Lite et une variante spécialisée Code, garantissant qu'il couvre tout le spectre, des appareils mobiles au traitement lourd côté serveur.

Crucialement, ByteDance tire parti de sa base d'utilisateurs massive pour affiner l'« intelligence émotionnelle » et la fluidité conversationnelle du modèle, dans le but de maintenir Doubao comme la meilleure super-application grand public dans un marché encombré.

Zhipu GLM-5 : Un triomphe du matériel domestique

Le lancement de GLM-5 par Zhipu AI se distingue pour une raison différente : l'indépendance de l'infrastructure. Le modèle de 744 milliards de paramètres (utilisant une architecture de mélange d'experts ou Mixture-of-Experts) aurait été entièrement entraîné sur des puces Ascend de Huawei, marquant une étape importante dans les efforts de la Chine pour se découpler du matériel NVIDIA faisant l'objet de restrictions américaines.

GLM-5, qui a été lancé avec un prix de rupture d'environ 0,80 $ par million de tokens d'entrée, se positionne comme le poids lourd académique et de la recherche. L'aperçu « Pony Alpha » du modèle avait déjà attiré l'attention pour ses capacités de raisonnement avant que l'appellation officielle ne soit dévoilée. Le succès de Zhipu dans l'entraînement d'un modèle aussi massif sur du silicium domestique apaise les craintes que les contrôles à l'exportation américains ne plafonnent de manière permanente le développement de l'IA chinoise.

Analyse comparative des nouveaux lancements

Le tableau suivant résume les spécifications clés et le positionnement stratégique des modèles lancés durant cette fenêtre de pré-vacances.

Tableau : Lancements de modèles d'IA du Nouvel An Lunaire 2026

Nom du modèle Développeur Architecture/Fonction clé Axe stratégique principal
DeepSeek V4 DeepSeek AI Hyper-connexions contraintes par variétés (mHC) Efficacité extrême des coûts et raisonnement de codage
Qwen 3.5 Alibaba Cloud Multimodalité et appel de fonctions améliorés Intégration en entreprise et écosystème open-source
Doubao 2.0 ByteDance Doubao-Seed-2.0 / Flux de travail agentique Applications grand public et agents autonomes
GLM-5 Zhipu AI 744 Mds de paramètres (MoE) sur puces Ascend Indépendance de l'infrastructure domestique et échelle

Implications du marché : La course vers le zéro

Le lancement simultané de ces modèles souligne la férocité de la compétition domestique en Chine. La dynamique de « guerre des prix » de 2024 et 2025 ne s'est pas calmée ; elle a muté en une « guerre de l'efficacité ».

Pour les développeurs, c'est un âge d'or. Le coût de l'intelligence chute plus rapidement que la loi de Moore, permettant de nouvelles classes d'applications qui exécutent des inférences en arrière-plan continu — telles que des assistants personnels en temps réel ou des bots de refactorisation de code automatisés — qui étaient auparavant trop coûteuses à exploiter.

Cependant, pour les entreprises impliquées, la pression financière est immense. La précipitation pour lancer les produits avant le Nouvel An lunaire suggère une mentalité de « conquête de territoire », où la capture de l'attention des développeurs avant la pause des vacances est perçue comme critique.

Contexte mondial

Alors que la Silicon Valley reste concentrée sur la voie vers l'AGI (intelligence artificielle générale) avec des clusters de calcul massifs, les laboratoires chinois se forgent une identité distincte centrée sur l'efficacité de l'inférence et la dominance de la couche applicative. La capacité de DeepSeek V4 à défier les modèles américains de premier plan à une fraction du coût d'entraînement et d'inférence remet en question le récit dominant selon lequel « plus c'est gros, mieux c'est ».

Alors que l'année du Cheval commence, le message provenant de Pékin, Hangzhou et Shanghai est clair : la course à l'IA ne porte plus seulement sur qui possède le modèle le plus intelligent, mais sur qui peut rendre l'intelligence omniprésente, abordable et pratiquement utile.

Vedettes