
San Francisco, Kalifornien — In einer bedeutenden Eskalation der technologischen Rivalität zwischen den Vereinigten Staaten und China hat OpenAI die US-Gesetzgeber formell gewarnt, dass das chinesische KI-Startup DeepSeek systematisch Techniken der Modell-Destillation (Model Distillation) einsetzt, um die Fähigkeiten proprietärer US-Modelle für künstliche Intelligenz zu replizieren.
Laut einem Memo, das an das Special Committee des US-Repräsentantenhauses zum strategischen Wettbewerb zwischen den Vereinigten Staaten und der Kommunistischen Partei Chinas gesendet und anschließend von Bloomberg und Reuters am 12. Februar 2026 gemeldet wurde, behauptet OpenAI, dass DeepSeek „anspruchsvolle“ und „verschleierte“ Methoden anwendet, um Daten von den Servern von OpenAI zu extrahieren. Diese Daten werden angeblich verwendet, um DeepSeeks eigene Modelle zu trainieren, einschließlich des kürzlich bekannt gewordenen DeepSeek-R1, was es dem chinesischen Unternehmen effektiv ermöglicht, die immensen Forschungs- und Entwicklungskosten zu umgehen, die den amerikanischen Laboren entstanden sind.
Diese Entwicklung markiert einen entscheidenden Moment in der globalen KI-Landschaft und verlagert den Fokus von Hardware-Exportkontrollen auf den immateriellen – aber höchst wertvollen – Fluss von Modellgewichten und algorithmischer Logik.
Im Zentrum der Kontroverse steht eine im Bereich des maschinellen Lernens als Wissens-Destillation (Knowledge Distillation) bekannte Technik. Obwohl der Begriff abstrakt klingt, stellt der Prozess eine greifbare Bedrohung für den Wettbewerbsvorteil führender KI-Labore dar.
In einem Standard-Trainingsszenario lernt ein KI-Modell aus Rohdatensätzen – Billionen von Tokens aus Text, Code und Bildern. Dieser Prozess erfordert massive Rechenleistung und monatelange Verarbeitungszeit. Die Destillation kürzt diesen Prozess jedoch ab. Ein „Lehrer“-Modell (in diesem Fall vermutlich die GPT-4- oder o1-Serie von OpenAI) wird umfassend abgefragt. Das „Schüler“-Modell (die Architektur von DeepSeek) lernt nicht nur aus den korrekten Antworten, sondern auch aus den Wahrscheinlichkeitsverteilungen und Argumentationspfaden, die vom Lehrer bereitgestellt werden.
Das Memo von OpenAI behauptet, dass DeepSeek nicht nur öffentliche Ausgaben nutzt, sondern aktiv Sicherheitsvorkehrungen umgeht, um diese hochwertigen Trainingssignale in großem Umfang zu ernten. Auf diese Weise kann DeepSeek angeblich eine nahezu gleichwertige Leistung mit einem Bruchteil der Rechenressourcen und finanziellen Investitionen erzielen, die seine US-Pendants benötigen.
Um die von OpenAI angeführte wirtschaftliche und technische Disparität zu verstehen, ist es wichtig, die beiden primären Ansätze der Modellentwicklung zu vergleichen.
Tabelle 1: Natives Training vs. Modell-Destillation
| Merkmal | Natives Basistraining | Modell-Destillation (Der Vorwurf) |
|---|---|---|
| Primärer Input | Rohdatensätze (Web, Bücher, Code) | Ausgaben eines überlegenen „Lehrer“-Modells |
| Rechenaufwand | Extrem hoch (Tausende von GPUs) | Niedrig bis mittel (Optimierungsfokussiert) |
| Entwicklungszeit | Monate bis Jahre | Wochen bis Monate |
| Wirtschaftliche Belastung | Milliarden in F&E und Hardware | Minimal (Bruchteil der ursprünglichen Kosten) |
| Resultierendes Modell | Originäre Denkfähigkeiten | Nachgeahmte Fähigkeiten mit potenziellen Lücken |
Die Vorwürfe gehen über einfache Nutzungsverstöße hinaus. OpenAI behauptet, spezifische, adversative Verhaltensmuster erkannt zu haben, die mit DeepSeek-Mitarbeitern in Verbindung stehen. Das Memo beschreibt, wie diese Akteure angeblich getarnte Drittanbieternetzwerke nutzten, um die Herkunft ihrer Anfragen zu verschleiern und so die geografischen und volumenbasierten Sperren von OpenAI zu umgehen.
„Wir haben Konten beobachtet, die mit DeepSeek-Mitarbeitern in Verbindung stehen und Methoden zur Umgehung von Zugangsbeschränkungen einsetzen“, heißt es in dem Memo. OpenAI charakterisiert diese Aktivität als Versuch des „Trittbrettfahrens“ bei den technologischen Durchbrüchen der US-Labore. Die Implikation ist, dass DeepSeeks vielgepriesene Effizienz – oft als technisches Wunderwerk bezeichnet – teilweise auf diesen unbefugten Transfer von Intelligenz und nicht allein auf architektonische Innovation zurückzuführen sein könnte.
Über die kommerziellen Auswirkungen hinaus hat OpenAI eine Warnung in Bezug auf die nationale Sicherheit ausgesprochen. Das Unternehmen warnte die Gesetzgeber, dass bei der Kopie von Fähigkeiten durch Destillation die im Originalmodell eingebauten Sicherheitsvorkehrungen und ethischen Leitplanken oft verloren gehen oder verworfen werden.
Es ist bekannt, dass DeepSeeks Modelle die strengen chinesischen Internetvorschriften einhalten und Themen wie den Status von Taiwan oder die Proteste auf dem Platz des Himmlischen Friedens von 1989 zensieren. OpenAI argumentiert jedoch, dass die Gefahr in dem liegt, was nicht gefiltert wird: die rohe Fähigkeit, Cyber-Exploits zu generieren oder biologische Kampfstoffe zu entwerfen.
„Wenn Fähigkeiten durch Destillation kopiert werden, bleiben Sicherheitsvorkehrungen oft auf der Strecke“, notierte OpenAI. Dies schafft ein Szenario, in dem ein destilliertes Modell die gefährlichen Fähigkeiten eines führenden US-Modells besitzt, aber die „Verweigerungsmechanismen“ fehlen, die entwickelt wurden, um Missbrauch in Hochrisikobereichen wie Biologie oder Chemie zu verhindern.
Der Aufstieg von DeepSeek hat bereits Schockwellen durch den Aktienmarkt gesendet und die Bewertungen von US-Chipherstellern und KI-Unternehmen gleichermaßen beeinflusst. Durch das Angebot von Hochleistungsmodellen kostenlos oder zu deutlich niedrigeren API-Kosten fordert DeepSeek das Geschäftsmodell von Unternehmen wie OpenAI, Anthropic und Google heraus, die auf Abonnementeinnahmen angewiesen sind, um ihre milliardenschweren Infrastrukturprojekte zu finanzieren.
Wenn die Destillation zu einem normalisierten Weg für Wettbewerber wird, um aufzuholen, könnte der Anreiz für privates Kapital, teure Pionierforschung zu finanzieren, schwinden. Der Appell von OpenAI an den Kongress deutet darauf hin, dass sie dies nicht nur als Verstoß gegen die Nutzungsbedingungen sehen, sondern als systemische Bedrohung für das US-Innovationsökosystem, die gesetzgeberische oder regulatorische Interventionen erfordert.
Die Anschuldigungen haben eine heftige Debatte innerhalb der technischen Gemeinschaft ausgelöst. Befürworter von Open-Source-KI argumentieren, dass die Analyse von Modellausgaben eine Standardpraxis ist und dass das „Lernen von den Besten“ ein grundlegender Motor des wissenschaftlichen Fortschritts sei. Kritiker weisen jedoch darauf hin, dass die automatisierte, großflächige Extraktion gegen die vertraglichen Nutzungsbedingungen fast aller kommerziellen KI-Anbieter verstößt.
DeepSeek hat noch keine detaillierte öffentliche Gegendarstellung zu diesen spezifischen Behauptungen abgegeben, obwohl das Unternehmen seinen Erfolg zuvor effizientem Coding und einer neuartigen Architektur zugeschrieben hat, die speziell für die Inferenzoptimierung entwickelt wurde.
Während das Special Committee des US-Repräsentantenhauses diese Vorwürfe prüft, erwartet die Branche potenzielle politische Änderungen. Diese könnten von strengeren „Know Your Customer“-Anforderungen (KYC) für den KI-API-Zugang bis hin zu neuen Handelsbeschränkungen reichen, die darauf abzielen, den digitalen Export von Modellgewichten und Argumentationspfaden zu verhindern.
Für Creati.ai unterstreicht diese sich entwickelnde Geschichte die kritische Bedeutung des Schutzes geistigen Eigentums (Intellectual Property) im Zeitalter der generativen KI. Da Modelle immer leistungsfähiger werden, wird die Linie zwischen Inspiration und Diebstahl zur neuen Frontlinie des globalen technologischen Wettbewerbs.