
San Francisco, CA — Dans une escalade significative de la rivalité technologique entre les États-Unis et la Chine, OpenAI a officiellement averti les législateurs américains que la startup chinoise d'IA DeepSeek utilise systématiquement des techniques de « distillation » pour reproduire les capacités des modèles de propriété intellectuelle de l'intelligence artificielle américaine.
Selon un mémo envoyé au Comité spécial de la Chambre sur la compétition stratégique entre les États-Unis et le Parti communiste chinois, et rapporté ultérieurement par Bloomberg et Reuters le 12 février 2026, OpenAI allègue que DeepSeek emploie des méthodes « sophistiquées » et « obscurcies » pour extraire des données des serveurs d'OpenAI. Ces données seraient ensuite utilisées pour entraîner les propres modèles de DeepSeek, y compris le désormais célèbre DeepSeek-R1, permettant ainsi à l'entreprise chinoise de contourner les coûts immenses de recherche et développement supportés par les laboratoires américains.
Ce développement marque un tournant décisif dans le paysage mondial de l'IA, déplaçant l'attention des contrôles d'exportation de matériel vers le flux intangible — mais extrêmement précieux — des poids de modèles et de la logique algorithmique.
Au cœur de la controverse se trouve une technique connue dans l'apprentissage automatique (Machine Learning) sous le nom de « distillation de connaissances ». Bien que le terme semble abstrait, le processus représente une menace tangible pour le fossé concurrentiel des principaux laboratoires d'IA.
Dans un scénario d'entraînement standard, un modèle d'IA apprend à partir de jeux de données bruts — des milliers de milliards de jetons (tokens) de texte, de code et d'images. Ce processus nécessite une puissance de calcul massive et des mois de temps de traitement. La distillation, cependant, raccourcit ce processus. Un modèle « enseignant » (dans ce cas, vraisemblablement la série GPT-4 ou o1 d'OpenAI) est interrogé de manière intensive. Le modèle « élève » (l'architecture de DeepSeek) apprend non seulement des bonnes réponses, mais aussi des distributions de probabilité et des traces de raisonnement fournies par l'enseignant.
Le mémo d'OpenAI soutient que DeepSeek ne se contente pas d'utiliser des sorties publiques, mais contourne activement les garde-fous pour récolter ces signaux d'entraînement de haute qualité à grande échelle. Ce faisant, DeepSeek pourrait prétendument atteindre des performances quasi équivalentes avec une fraction des ressources de calcul et de l'investissement financier requis par ses homologues américains.
Pour comprendre la disparité économique et technique citée par OpenAI, il est essentiel de comparer les deux approches principales du développement de modèles.
Tableau 1 : Entraînement natif vs distillation de modèles
| Caractéristique | Entraînement de fondation natif | Distillation de modèles (L'accusation) |
|---|---|---|
| Entrée principale | Jeux de données bruts (Web, Livres, Code) | Sorties d'un modèle « enseignant » supérieur |
| Coût de calcul | Extrêmement élevé (Milliers de GPU) | Faible à moyen (Axé sur l'optimisation) |
| Temps de développement | Des mois à des années | Des semaines à des mois |
| Fardeau économique | Milliards en R&D et matériel | Minimal (fraction du coût original) |
| Modèle résultant | Capacités de raisonnement originales | Capacités imitées avec des lacunes potentielles |
Les allégations vont au-delà de simples violations d'utilisation. OpenAI affirme avoir détecté des schémas de comportement spécifiques et contradictoires liés aux employés de DeepSeek. Le mémo décrit comment ces acteurs auraient utilisé des réseaux tiers déguisés pour masquer l'origine de leurs requêtes, échappant ainsi aux blocages géographiques et basés sur le volume d'OpenAI.
« Nous avons observé des comptes associés aux employés de DeepSeek utilisant des méthodes pour contourner les restrictions d'accès », indique le mémo. OpenAI qualifie cette activité de tentative de « resquillage » sur les percées technologiques des laboratoires américains. L'implication est que l'efficacité vantée de DeepSeek — souvent citée comme une merveille d'ingénierie — pourrait être en partie attribuée à ce transfert non autorisé d'intelligence plutôt qu'à la seule innovation architecturale.
Au-delà des implications commerciales, OpenAI a tiré la sonnette d'alarme concernant la sécurité nationale. L'entreprise a averti les législateurs que lorsque les capacités sont copiées via la distillation, l'alignement de sécurité et les garde-fous éthiques intégrés au modèle original sont souvent perdus ou écartés.
Les modèles de DeepSeek sont connus pour se conformer aux strictes réglementations chinoises sur Internet, censurant des sujets tels que le statut de Taïwan ou les manifestations de la place Tiananmen en 1989. Cependant, OpenAI soutient que le danger réside dans ce qui n'est pas filtré : la capacité brute à générer des exploits cybernétiques ou à concevoir des agents biologiques.
« Lorsque les capacités sont copiées par distillation, les garde-fous passent souvent à la trappe », a noté OpenAI. Cela crée un scénario où un modèle distillé possède les capacités dangereuses d'un modèle de pointe américain, mais manque des mécanismes de « refus » conçus pour empêcher l'utilisation abusive dans des domaines à haut risque comme la biologie ou la chimie.
L'ascension de DeepSeek a déjà provoqué des ondes de choc sur le marché boursier, impactant les valorisations des fabricants de puces américains et des entreprises d'IA. En proposant des modèles performants gratuitement ou à des coûts d'API nettement inférieurs, DeepSeek défie le modèle économique d'entreprises comme OpenAI, Anthropic et Google, qui comptent sur les revenus d'abonnement pour financer leurs projets d'infrastructure de plusieurs milliards de dollars.
Si la distillation devient une voie normalisée pour que les concurrents rattrapent leur retard, l'incitation pour le capital privé à financer des recherches coûteuses de « frontière » pourrait diminuer. L'appel d'OpenAI au Congrès suggère qu'ils considèrent cela non pas seulement comme une violation des conditions de service, mais comme une menace systémique pour l'écosystème d'innovation américain qui nécessite une intervention législative ou réglementaire.
Les accusations ont déclenché un débat féroce au sein de la communauté technique. Les partisans de l'IA en open-source soutiennent que l'analyse des sorties de modèles est une pratique standard et que « apprendre des meilleurs » est un moteur fondamental du progrès scientifique. Cependant, les critiques soulignent que l'extraction automatisée à grande échelle viole les conditions contractuelles de service de presque tous les fournisseurs d'IA commerciale.
DeepSeek n'a pas encore publié de réfutation publique détaillée de ces affirmations spécifiques, bien que l'entreprise ait précédemment attribué son succès à un codage efficace et à une nouvelle architecture spécifiquement conçue pour l'optimisation de l'inférence.
Alors que le Comité spécial de la Chambre des représentants des États-Unis examine ces allégations, l'industrie anticipe de potentiels changements de politique. Ceux-ci pourraient aller d'exigences plus strictes de « connaissance du client » (KYC) pour l'accès aux API d'IA à de nouvelles restrictions commerciales visant à empêcher l'exportation numérique de poids de modèles et de traces de raisonnement.
Pour Creati.ai, cette histoire en cours souligne l'importance critique de la protection de la propriété intellectuelle à l'ère de l'IA générative (Generative AI). À mesure que les modèles deviennent plus performants, la frontière entre l'inspiration et le vol devient la nouvelle ligne de front de la compétition technologique mondiale.