
カリフォルニア州サンフランシスコ — 米国と中国の間の技術的対立が大幅に激化する中、OpenAIは米国の議員に対し、中国のAIスタートアップであるDeepSeekが「モデル蒸留(Model Distillation)」技術を体系的に活用して、米国の独自の人工知能モデルの機能を複製していると正式に警告した。
米国下院の「米国と中国共産党の間の戦略的競争に関する特別委員会」に送られ、その後2026年2月12日にブルームバーグとロイターによって報じられたメモによると、OpenAIは、DeepSeekがOpenAIのサーバーからデータを抽出するために「洗練された」かつ「難読化された」手法を採用していると主張している。このデータは、最近普及したDeepSeek-R1を含むDeepSeek自体のモデルのトレーニングに使用されているとされ、事実上、この中国企業が米国の研究所によって発生した莫大な研究開発コストを回避することを可能にしている。
この進展は、世界のAI状況における極めて重要な瞬間であり、焦点をハードウェアの輸出管理から、無形ではあるが非常に価値のあるモデルの重みとアルゴリズムの論理の流れへと移している。
論争の中心にあるのは、機械学習において「知識蒸留(Knowledge Distillation)」として知られる技術である。この用語は抽象的に聞こえるが、そのプロセスは主要なAI研究所の競争上の優位性に対する具体的な脅威となっている。
標準的なトレーニングシナリオでは、AIモデルは生のデータセット(数兆トークンのテキスト、コード、画像)から学習する。このプロセスには膨大な計算能力と数ヶ月の処理時間が必要である。しかし、蒸留はこのプロセスを短縮する。「教師」モデル(この場合はおそらくOpenAIのGPT-4またはo1シリーズ)に対して広範なクエリが実行される。「生徒」モデル(DeepSeekのアーキテクチャ)は、正解からだけでなく、教師によって提供される確率分布や推論トレースからも学習する。
OpenAIのメモは、DeepSeekが単に公開された出力を使用しているだけでなく、これらの高品質なトレーニングシグナルを大規模に収集するために、セーフガードを能動的に回避していると主張している。そうすることで、DeepSeekは米国の競合他社が必要とする計算資源と財務投資のわずかな一部で、ほぼ同等のパフォーマンスを達成できるとされている。
OpenAIが引用した経済的および技術的な格差を理解するには、モデル開発に対する2つの主要なアプローチを比較することが不可欠である。
表1:ネイティブトレーニング vs モデル蒸留
| 機能 | ネイティブ基盤トレーニング | モデル蒸留(告発内容) |
|---|---|---|
| 主な入力 | 生のデータセット(ウェブ、書籍、コード) | 優れた「教師」モデルからの出力 |
| 計算コスト | 極めて高い(数千のGPU) | 低〜中(最適化に重点) |
| 開発期間 | 数ヶ月〜数年 | 数週間〜数ヶ月 |
| 経済的負担 | 研究開発とハードウェアに数十億ドル | 最小限(元のコストのわずかな一部) |
| 結果として得られるモデル | 独自の推論能力 | 潜在的なギャップを伴う模倣された能力 |
告発は単なる利用規約違反にとどまらない。OpenAIは、DeepSeekの従業員に関連する特定の、敵対的な行動パターンを検出したと主張している。メモでは、これらのアクターがいかに偽装されたサードパーティネットワークを利用してクエリの送信元を隠蔽し、それによってOpenAIの地理的およびボリュームベースのブロックを回避したとされるかについて概説している。
「我々は、アクセス制限を回避する手法を使用しているDeepSeekの従業員に関連するアカウントを観察した」とメモは述べている。OpenAIはこの活動を、米国の研究所の技術的ブレークスルーへの「フリーライド(タダ乗り)」の試みであると特徴づけている。その含意は、DeepSeekの誇る効率性(しばしばエンジニアリングの驚異として引用される)は、純粋なアーキテクチャの革新だけでなく、この許可されていない知能の移転に一部起因している可能性があるということである。
商業的な影響を超えて、OpenAIは国家安全保障(National Security)に関する警告を発した。同社は議員に対し、蒸留を通じて機能がコピーされると、元のモデルに組み込まれた安全性の整合性(Safety Alignment)や倫理的ガードレールが失われたり破棄されたりすることが多いと警告した。
DeepSeekのモデルは、台湾の地位や1989年の天安門事件などのトピックを検閲し、中国の厳格なインターネット規制を遵守していることで知られている。しかしOpenAIは、危険性はフィルタリングされていないもの、つまりサイバー攻撃の実行コードを生成したり、生物兵器を設計したりする生の能力にあると主張している。
「蒸留を通じて機能がコピーされる場合、多くの場合、セーフガードは後回しにされる」とOpenAIは指摘した。これにより、蒸留されたモデルが最先端の米国モデルの危険な能力を持ちながら、生物学や化学などのハイリスクな領域での悪用を防ぐために設計された「拒否」メカニズムを欠いているというシナリオが生じる。
DeepSeekの台頭はすでに株式市場に衝撃を与え、米国のチップメーカーやAI企業の時価総額に影響を与えている。高性能モデルを無料、または大幅に低いAPIコストで提供することで、DeepSeekは、数十億ドルのインフラプロジェクトに資金を供給するためにサブスクリプション収入に依存しているOpenAI、Anthropic、Googleなどの企業のビジネスモデルに挑戦している。
もし蒸留が競合他社が追いつくための標準的なルートになれば、多額の費用がかかる「フロンティア」研究に資金を提供する民間資本の動機が減退する可能性がある。OpenAIの議会への訴えは、彼らがこれを単なるサービス利用規約の違反としてではなく、立法や規制による介入を必要とする米国のイノベーションエコシステムに対するシステム的な脅威と見なしていることを示唆している。
この告発は、技術コミュニティ内で激しい議論を巻き起こしている。オープンソースAIの支持者は、モデルの出力を分析することは標準的な慣行であり、「最高のものから学ぶこと」は科学的進歩の根本的な原動力であると主張している。しかし批判者は、自動化された大規模な抽出は、ほぼすべての商用AIプロバイダーの契約上の利用規約に違反していると指摘している。
DeepSeekは、これらの特定の主張に対して詳細な公式反論をまだ出していないが、同社は以前、その成功の要因を、推論の最適化のために特別に設計された効率的なコーディングと斬新なアーキテクチャにあるとしていた。
米国下院特別委員会がこれらの告発を検討する中、業界は潜在的な政策転換を予想している。これらは、AI APIアクセスに対するより厳格な「顧客確認(KYC)」要件から、モデルの重みや推論トレースのデジタル輸出を防ぐことを目的とした新たな貿易制限まで多岐にわたる可能性がある。
Creati.aiにとって、この展開する物語は、生成式 AI(Generative AI)の時代における知的財産(Intellectual Property)保護の極めて重要な重要性を強調している。モデルの能力が高まるにつれ、インスピレーションと盗用の境界線は、世界の技術競争の新たな最前線となっている。