
Em uma revelação histórica que ressalta a natureza de faca de dois gumes da inteligência artificial, o Grupo de Inteligência de Ameaças do Google (Google’s Threat Intelligence Group - GTIG) divulgou um relatório abrangente detalhando como atores patrocinados por estados da China, Irã, Coreia do Norte e Rússia estão explorando sistematicamente o Gemini AI. O relatório, lançado esta semana, fornece as evidências mais detalhadas até o momento de que a Inteligência Artificial Generativa (Generative AI) não é mais apenas um risco teórico na cibersegurança, mas uma ferramenta operacional ativa em todas as etapas do ciclo de vida de um ataque.
Desde o refinamento de iscas de phishing até a geração de código de malware polimórfico, os adversários estão aproveitando as capacidades dos Grandes Modelos de Linguagem (Large Language Models - LLMs) para acelerar suas campanhas. Talvez o mais alarmante seja o fato de o Google ter destacado uma nova classe sofisticada de ameaça: os "ataques de destilação" (distillation attacks), nos quais cibercriminosos tentam roubar a propriedade intelectual dos próprios modelos de IA para construir versões privadas e sem censura da tecnologia.
À medida que o cenário da IA se divide entre a inovação aberta e o controle de segurança, as revelações surgem em um momento crucial. Enquanto o Google combate o uso não autorizado por estados renegados, o Departamento de Defesa dos EUA se encontra em um impasse público com a líder em IA Anthropic sobre restrições de segurança, desenhando um quadro complexo do futuro da IA militarizada.
Uma das descobertas tecnicamente mais significativas no relatório do Google é a prevalência da extração de modelos, ou ataques de "destilação". Diferente do roubo de dados tradicional, que visa informações de usuários ou credenciais, os ataques de destilação visam a arquitetura cognitiva do modelo de IA.
O Google relatou a interrupção de uma campanha massiva envolvendo mais de 100.000 prompts gerados, projetados para sondar a lógica, o raciocínio e as capacidades linguísticas do Gemini. O objetivo dos atacantes não era interromper o serviço, mas sim replicá-lo. Ao consultar sistematicamente o modelo e registrar suas saídas, os adversários podem criar um conjunto de dados para treinar modelos "alunos" menores que imitam o desempenho do Gemini.
Por que a Destilação é Importante:
O relatório detalha uma "barragem implacável" de atividades, atribuindo táticas específicas aprimoradas por IA a grupos conhecidos de Ameaça Persistente Avançada (Advanced Persistent Threat - APT). A diversidade desses ataques ilustra que a IA está sendo adotada não apenas por unidades de elite de hacking, mas em todo o espectro da ciberespionagem.
A tabela a seguir resume os principais atores identificados pelo Google e seu uso indevido específico do Gemini:
| Nome do Grupo | Origem | Objetivo Principal | Tática de IA Utilizada |
|---|---|---|---|
| UNC2970 | Coreia do Norte | Espionagem do Setor de Defesa | Síntese de OSINT, perfilamento de alvos para a "Operation Dream Job" |
| APT42 | Irã | Phishing e Roubo de Credenciais | Tradução, desenvolvimento de persona, redação de e-mails persuasivos |
| UNC4841/UNC3886 | China | Exploração Técnica | Pesquisa de vulnerabilidade, geração de código, otimização de scripts |
| APT44 (Sandworm) | Rússia | Sabotagem de Infraestrutura Crítica | Superação de limitações técnicas em operações de guerra |
| Grupos com Motivação Financeira | Global | Lucro/Ransomware | Desenvolvimento de malware "Honestcue", kits de phishing baseados em IA |
O grupo norte-coreano UNC2970, ligado ao infame Lazarus Group, integrou o Gemini em sua duradoura "Operation Dream Job". Esta campanha visa funcionários nos setores de defesa e aeroespacial com falsas ofertas de emprego para infiltrar-se em redes seguras. A análise do Google revela que o UNC2970 utiliza o Gemini para coletar e sintetizar Inteligência de Fontes Abertas (Open Source Intelligence - OSINT) do LinkedIn e outras plataformas. Ao alimentar perfis na IA, o grupo gera materiais de recrutamento altamente personalizados e confiáveis que ignoram o ceticismo de alvos conscientes de segurança. A IA permite que eles mapeiem funções técnicas e estruturas salariais com uma velocidade sem precedentes.
Para atores iranianos como o APT42, a barreira de entrada para uma engenharia social eficaz historicamente tem sido a linguagem e as nuances culturais. O Gemini efetivamente baixou essa barreira. O grupo utiliza o modelo para redigir e-mails de phishing que são gramaticalmente perfeitos e culturalmente sintonizados com seus alvos em Israel e nos EUA. Além disso, o APT42 usa a IA para atividades pós-comprometimento, como analisar dados roubados para identificar rapidamente endereços de e-mail e credenciais de alto valor, acelerando o tempo de exploração após uma brecha inicial.
Grupos patrocinados pelo estado chinês mostraram preferência pela integração técnica. Em vez de apenas usar a IA para texto, eles estão empregando o Gemini para análise de código. O relatório destaca como grupos como o UNC4841 usam o modelo para sugerir otimizações de scripts ou identificar bugs em potenciais exploits. Isso sugere uma mudança em direção ao "hacking assistido por IA", onde operadores humanos usam LLMs como um multiplicador de força para identificar vulnerabilidades de dia zero (zero-day) ou escrever código polimórfico que evade assinaturas de antivírus.
Além da espionagem estatal, o relatório lança luz sobre a adoção da IA pelo setor de cibercrime comercial. Uma descoberta de destaque é o "Honestcue", um framework de malware explicitamente projetado para aproveitar a API do Gemini.
O Honestcue opera como um downloader e lançador que envia prompts de linguagem natural para a API do Gemini e recebe código-fonte C# malicioso em resposta. Como o código é gerado dinamicamente e executado em memória, ele cria uma pegada de ataque "sem arquivo" (fileless) que é incrivelmente difícil de ser sinalizada por sistemas tradicionais de detecção de endpoint. Isso representa uma evolução significativa: o malware não é mais um arquivo estático, mas um conjunto dinâmico de instruções geradas em tempo real por uma IA baseada em nuvem.
Da mesma forma, o Google identificou campanhas "ClickFix" — ataques de engenharia social que usam IA para gerar instruções de suporte técnico convincentes. Essas instruções enganam os usuários para que copiem e colem scripts maliciosos em seus próprios terminais, explorando a confiança da vítima em guias de "solução de problemas".
Enquanto o Google luta para manter criminosos fora de seu ecossistema de IA, uma batalha diferente está ocorrendo em Washington sobre quem tem permissão para entrar. Conforme confirmado por relatórios da Axios e do The Wall Street Journal esta semana, o Departamento de Defesa dos EUA (DoD) está em conflito com a provedora de IA Anthropic devido às rígidas políticas de uso desta última.
O Secretário de Defesa Pete Hegseth ameaçou rotular a Anthropic como um "risco para a cadeia de suprimentos" e cortar laços com a empresa. O cerne da disputa reside na abordagem de "IA Constitucional" (Constitutional AI) da Anthropic, que inclui recusas em auxiliar no desenvolvimento de armas ou operações letais. Embora essas salvaguardas sejam projetadas para evitar exatamente o tipo de uso indevido que o Google está observando do Irã e da Coreia do Norte, o Pentágono as vê como um passivo.
"Nossos combatentes precisam ter acesso aos modelos que fornecem superioridade de decisão no campo de batalha", afirmou um oficial do DoD, criticando modelos que "não permitem que você lute guerras". Essa tensão foi exacerbada pela revelação de que o modelo Claude da Anthropic foi supostamente usado via Palantir durante a operação de janeiro que capturou o presidente venezuelano Nicolás Maduro. O incidente destaca o "Dilema do Uso Duplo" (Dual-Use Dilemma): as mesmas salvaguardas destinadas a evitar que a IA se torne uma ferramenta de terror estão sendo agora enquadradas como obstáculos à segurança nacional.
A convergência dessas duas histórias — o relatório do Google sobre abuso criminal e o conflito do Pentágono com a Anthropic — pinta um quadro austero do cenário de segurança da IA em 2026.
Para profissionais de cibersegurança, o relatório do Google confirma que a "barreira de entrada" para ataques sofisticados ruiu. Hackers amadores (script kiddies) agora podem gerar malwares complexos, e falantes não nativos podem criar iscas de phishing perfeitas. Os ataques de "destilação" servem como um alerta para todos os adotantes corporativos de IA: seu modelo é sua propriedade intelectual (IP) e ele está sob cerco ativo.
Para os formuladores de políticas, a contradição é gritante. A indústria está sendo simultaneamente solicitada a fechar os modelos para evitar abusos patrocinados por estados (o desafio do Google) e a abrir os modelos para permitir operações militares sancionadas pelo estado (o desafio da Anthropic). Enquanto atores de ameaça como o UNC2970 e o APT42 continuam a inovar, a habilidade do Ocidente em equilibrar inovação, segurança e capacidades de defesa definirá a próxima era da ciberguerra.
A resposta do Google tem sido fortalecer seu "ecossistema robusto" de defesas, desativando contas e infraestruturas associadas a esses atores. No entanto, como demonstra o malware "Honestcue", enquanto as APIs estiverem abertas para negócios, elas permanecerão abertas para exploração.