AI News

DOT conta com o Google Gemini para acelerar a elaboração de normas federais

A interseção entre a inteligência artificial e a governança federal atingiu um momento decisivo quando a administração Trump anunciou planos para usar o Gemini do Google para redigir regulamentos federais. Em uma medida descrita por autoridades como uma "revolução" na elaboração de normas, o Departamento de Transportes dos EUA (DOT) está se posicionando como vanguarda dessa mudança automatizada, com o objetivo de reduzir drasticamente o tempo necessário para criar estruturas regulatórias complexas.

Essa iniciativa, que representa uma ruptura significativa com processos burocráticos tradicionais, busca aproveitar as capacidades gerativas de Modelos de Linguagem de Grande Escala (Large Language Models, LLMs) para produzir projetos de regulamentos em uma fração do tempo habitual. Embora os defensores argumentem que isso eliminará gargalos e modernizará a eficiência governamental, a estratégia acendeu um debate inflamado sobre a segurança, precisão e integridade legal de delegar governança de alto risco a algoritmos.

O padrão "bom o bastante": uma nova filosofia para a governança

No cerne dessa iniciativa está uma mudança fundamental na filosofia da qualidade regulatória. Gregory Zerzan, o assessor jurídico do DOT, supostamente defendeu uma doutrina que prioriza velocidade e volume em detrimento da perfeição meticulosa. Em reuniões internas, Zerzan enfatizou que a agência não precisa da "regra perfeita" nem sequer de uma "regra muito boa", mas sim de uma que seja "boa o suficiente".

Essa abordagem está alinhada com uma estratégia mais ampla de "inundar a área" com novas regulamentações, utilizando a IA para contornar o "ponto de estrangulamento" humano que tipicamente retarda o processo de redação. Sob esse novo paradigma, o DOT pretende acelerar o cronograma desde o conceito até um rascunho completo pronto para revisão pelo Office of Information and Regulatory Affairs (OIRA) para apenas 30 dias — um processo que tradicionalmente leva meses ou anos.

A dependência do Google Gemini é central para essa aceleração. Autoridades afirmam que o modelo de IA pode gerar um rascunho de regra em aproximadamente 20 minutos, um feito que alteraria fundamentalmente o ritmo da elaboração de normas federais. No entanto, esse foco na velocidade levanta questões críticas sobre a profundidade da análise jurídica e da escrutínio técnico aplicados a regras que regem padrões essenciais de segurança para aviação, dutos e transporte ferroviário.

Gemini à frente: capacidades e limitações

A implementação técnica desse plano envolve o uso de uma versão do Gemini do Google para redigir a maior parte do texto regulatório. Durante uma demonstração em dezembro de 2025, um apresentador — identificado por participantes como provavelmente sendo o Diretor Interino de IA Brian Brotsos — mostrou a capacidade do modelo de gerar um "Aviso de Proposta de Regulamentação (Notice of Proposed Rulemaking)" apenas com base em palavras-chave sobre o tópico.

A demonstração destacou tanto o potencial quanto as armadilhas da atual IA generativa (generative AI):

  • Reivindicações de eficiência: O apresentador sugeriu que o Gemini poderia lidar com 80% a 90% da carga de trabalho de redação, deixando ao pessoal humano principalmente a função de revisão final.
  • Qualidade da produção: Embora a IA tenha produzido com sucesso um documento que lembrava um aviso formal, testemunhas notaram que faltava a substância textual específica exigida pelo Código de Regulamentos Federais.
  • Defesa da "salada de palavras": Em uma observação controversa, o apresentador caracterizou grande parte do texto preambular em documentos regulatórios como "salada de palavras", sugerindo que a capacidade de um LLM de imitar esse estilo seria suficiente para fins governamentais.

A proposta sugere um futuro em que reguladores humanos passam de autores a auditores, monitorando "interações IA-a-IA" em vez de se envolverem em redação substantiva aprofundada. Esse modelo pressupõe que os ganhos de eficiência superam os riscos associados às "alucinações" (hallucinations) da IA — saídas declaradas com confiança, mas factualmente incorretas, comuns em modelos generativos.

Vozes de dissidência: preocupações sobre segurança e integridade

A rápida integração da IA em processos regulatórios críticos para a segurança atraiu forte crítica de funcionários internos e especialistas externos. A preocupação principal é a confiabilidade dos LLMs na interpretação de requisitos estatutários complexos e de jurisprudência sem raciocínio ao nível humano.

Mike Horton, ex-diretor interino de IA do DOT, fez uma crítica severa, comparando a iniciativa a "colocar um estagiário do ensino médio" para redigir regulamentos federais. Seu alerta destaca as possíveis consequências de erros em setores onde as normas impactam diretamente a segurança humana. "Ir rápido e quebrar coisas significa que pessoas vão se machucar", declarou Horton, fazendo referência ao mantra do Vale do Silício que o DOT parece estar adotando.

Membros atuais da equipe também expressaram alarme, observando que o papel de "humano no circuito" descrito pela liderança pode ser insuficiente para detectar erros sutis, porém juridicamente significativos, gerados pela IA. O receio é que o grande volume de texto gerado por IA possa sobrecarregar os revisores humanos, levando a um processo de aprovação automático que cria vulnerabilidades na estrutura regulatória federal.

Análise comparativa: o debate sobre a elaboração de normas por IA

A divergência de perspectivas entre os entusiastas tecnológicos da administração e os defensores da segurança é profunda. A tabela a seguir descreve os argumentos centrais conflitantes que moldam essa mudança de política.

Perspective Key Arguments Primary focus Representative Stance
Proponents AI eliminates bureaucratic bottlenecks; "Good enough" drafts are sufficient for initial stages; Humans slow down the process. Speed, Volume, Efficiency Gregory Zerzan: "We want good enough... We're flooding the zone."
Skeptics LLMs lack legal reasoning and accountability; Hallucinations pose safety risks; Complex regulations require deep expertise. Safety, Accuracy, Legality Mike Horton: "Having a high school intern... doing your rulemaking."
Legal Experts High-volume generation does not equal high-quality decision-making; Risk of violating administrative law standards. Administrative Integrity Bridget Dooling: "Words don't add up to a high-quality government decision."

A estratégia mais ampla de IA

A iniciativa do DOT não é um experimento isolado, mas parte de um impulso mais amplo da administração Trump para incorporar a inteligência artificial no aparato federal. Após uma série de ordens executivas apoiando o desenvolvimento de IA, a administração sinalizou uma intenção clara de utilizar a tecnologia para desregulamentar e reestruturar operações governamentais.

Isso está alinhado com propostas de órgãos consultivos externos, como o Department of Government Efficiency (DOGE) associado a Elon Musk, que advogou pelo uso de ferramentas automatizadas para reduzir drasticamente o código regulatório federal. A retórica de "ponta de lança" usada por autoridades do DOT sugere que o Departamento de Transportes está servindo como programa piloto para uma adoção de ferramentas de redação por IA em todo o governo.

Conclusão

O uso do Google Gemini pelo DOT representa um caso de teste de alto risco para a utilidade da IA generativa (generative AI) na administração pública. Embora a promessa de acelerar o lento processo de elaboração de normas seja inegável, a estratégia testa os limites da confiabilidade da IA atual. À medida que a agência avança com a proposta de "inundar a área", a tensão entre a demanda por velocidade e o imperativo por segurança provavelmente definirá a próxima era da regulamentação federal. Para a indústria de IA, isso serve como um ponto crítico de observação: ver se um LLM de uso geral pode realmente dominar as nuances do direito federal, ou se as "alucinações" (hallucinations) da máquina levarão a consequências no mundo real.

Em Destaque