
San Francisco, CA — Em uma escalada significativa da rivalidade tecnológica entre os Estados Unidos e a China, a OpenAI alertou formalmente os legisladores dos EUA que a startup chinesa de IA DeepSeek está utilizando sistematicamente técnicas de "destilação" (distillation) para replicar as capacidades de modelos proprietários de inteligência artificial dos EUA.
De acordo com um memorando enviado ao Comitê Seleto da Câmara sobre a Competição Estratégica Entre os Estados Unidos e o Partido Comunista Chinês, e posteriormente relatado pela Bloomberg e Reuters em 12 de fevereiro de 2026, a OpenAI alega que a DeepSeek está empregando métodos "sofisticados" e "ofuscados" para extrair dados dos servidores da OpenAI. Esses dados são então supostamente usados para treinar os próprios modelos da DeepSeek, incluindo o recentemente popularizado DeepSeek-R1, permitindo efetivamente que a empresa chinesa ignore os imensos custos de pesquisa e desenvolvimento incorridos pelos laboratórios americanos.
Este desenvolvimento marca um momento crucial no cenário global da IA, mudando o foco dos controles de exportação de hardware para o fluxo intangível — mas altamente valioso — de pesos de modelos e lógica algorítmica.
No cerne da controvérsia está uma técnica conhecida em aprendizado de máquina (machine learning) como "destilação de conhecimento" (knowledge distillation). Embora o termo pareça abstrato, o processo representa uma ameaça tangível ao fosso competitivo dos principais laboratórios de IA.
Em um cenário de treinamento padrão, um modelo de IA aprende a partir de conjuntos de dados brutos — trilhões de tokens de texto, código e imagens. Esse processo requer um poder computacional massivo e meses de tempo de processamento. A destilação, no entanto, atalha esse processo. Um modelo "professor" (neste caso, presumivelmente as séries GPT-4 ou o1 da OpenAI) é consultado extensivamente. O modelo "aluno" (a arquitetura da DeepSeek) aprende não apenas com as respostas corretas, mas com as distribuições de probabilidade e os traços de raciocínio fornecidos pelo professor.
O memorando da OpenAI afirma que a DeepSeek não está apenas usando saídas públicas, mas está contornando ativamente as salvaguardas para colher esses sinais de treinamento de alta qualidade em escala. Ao fazer isso, a DeepSeek pode supostamente alcançar um desempenho de quase paridade com uma fração dos recursos computacionais e do investimento financeiro exigidos por suas contrapartes nos EUA.
Para entender a disparidade econômica e técnica citada pela OpenAI, é essencial comparar as duas abordagens principais para o desenvolvimento de modelos.
Tabela 1: Treinamento Nativo vs. Destilação de Modelos
| Recurso | Treinamento de Fundação Nativo | Destilação de Modelos (A Acusação) |
|---|---|---|
| Entrada Principal | Conjuntos de dados brutos (Web, Livros, Código) | Saídas de um modelo "Professor" superior |
| Custo Computacional | Extremamente Alto (Milhares de GPUs) | Baixo a Médio (Focado em otimização) |
| Tempo de Desenvolvimento | Meses a Anos | Semanas a Meses |
| Carga Econômica | Bilhões em P&D e Hardware | Mínima (fração do custo original) |
| Modelo Resultante | Capacidades de raciocínio originais | Capacidades imitadas com potenciais lacunas |
As alegações vão além de simples violações de uso. A OpenAI afirma ter detectado padrões de comportamento específicos e adversários ligados a funcionários da DeepSeek. O memorando descreve como esses atores supostamente utilizaram redes de terceiros disfarçadas para mascarar a origem de suas consultas, escapando assim dos bloqueios geográficos e baseados em volume da OpenAI.
"Observamos contas associadas a funcionários da DeepSeek usando métodos para contornar as restrições de acesso", afirma o memorando. A OpenAI caracteriza essa atividade como uma tentativa de "pegar carona" (free-ride) nos avanços tecnológicos dos laboratórios dos EUA. A implicação é que a alardeada eficiência da DeepSeek — muitas vezes citada como uma maravilha da engenharia — pode ser parcialmente atribuída a essa transferência não autorizada de inteligência, em vez de apenas inovação arquitetônica.
Além das implicações comerciais, a OpenAI levantou um sinal de alerta em relação à segurança nacional (national security). A empresa alertou os legisladores que, quando as capacidades são copiadas via destilação, as salvaguardas de alinhamento de segurança e ética integradas ao modelo original são frequentemente perdidas ou descartadas.
Os modelos da DeepSeek são conhecidos por cumprir as rigorosas regulamentações de internet da China, censurando tópicos como o status de Taiwan ou os protestos na Praça da Paz Celestial (Tiananmen Square) em 1989. No entanto, a OpenAI argumenta que o perigo reside no que não é filtrado: a capacidade bruta de gerar explorações cibernéticas ou projetar agentes biológicos.
"Quando as capacidades são copiadas por meio da destilação, as salvaguardas muitas vezes ficam de lado", observou a OpenAI. Isso cria um cenário em que um modelo destilado possui as capacidades perigosas de um modelo de fronteira dos EUA, mas carece dos mecanismos de "recusa" projetados para evitar o uso indevido em domínios de alto risco, como biologia ou química.
A ascensão da DeepSeek já enviou ondas de choque através do mercado de ações, impactando as avaliações de fabricantes de chips e empresas de IA dos EUA. Ao oferecer modelos de alto desempenho gratuitamente ou a custos de API significativamente mais baixos, a DeepSeek desafia o modelo de negócios de empresas como OpenAI, Anthropic e Google, que dependem de receitas de assinatura para financiar seus projetos de infraestrutura multibilionários.
Se a destilação se tornar uma rota normalizada para os concorrentes alcançarem os líderes, o incentivo para o capital privado financiar pesquisas caras de "fronteira" pode diminuir. O apelo da OpenAI ao Congresso sugere que eles veem isso não apenas como uma violação dos termos de serviço, mas como uma ameaça sistêmica ao ecossistema de inovação dos EUA que requer intervenção legislativa ou regulatória.
As acusações geraram um debate acalorado na comunidade técnica. Os defensores da IA de código aberto (open-source AI) argumentam que analisar as saídas de modelos é uma prática padrão e que "aprender com os melhores" é um motor fundamental do progresso científico. No entanto, os críticos apontam que a extração automatizada em larga escala viola os termos contratuais de serviço de quase todos os provedores comerciais de IA.
A DeepSeek ainda não emitiu uma contestação pública detalhada a essas alegações específicas, embora a empresa tenha atribuído anteriormente seu sucesso à codificação eficiente e à arquitetura inovadora projetada especificamente para otimização de inferência.
À medida que o Comitê Seleto da Câmara dos EUA revisa essas alegações, a indústria antecipa potenciais mudanças políticas. Estas podem variar desde requisitos mais rigorosos de "Conheça Seu Cliente" (Know Your Customer - KYC) para acesso a APIs de IA até novas restrições comerciais destinadas a impedir a exportação digital de pesos de modelos e traços de raciocínio.
Para a Creati.ai, esta história em desenvolvimento ressalta a importância crítica da proteção da propriedade intelectual (intellectual property) na era da IA generativa (generative AI). À medida que os modelos se tornam mais capazes, a linha entre inspiração e roubo está se tornando a nova linha de frente da competição tecnológica global.