AI News

Legisladores dos EUA Mudam para Supervisão de IA Específica por Setor

Washington, D.C. – Em uma mudança significativa para a política tecnológica dos Estados Unidos, os líderes do Congresso estão se afastando de pausas amplas no desenvolvimento da inteligência artificial, favorecendo, em vez disso, uma estrutura regulatória setor por setor (sector-by-sector regulatory framework) matizada. Falando no Incompas Policy Summit esta semana, o Deputado Jay Obernolte (R-Calif.) esclareceu o caminho legislativo a seguir, sinalizando um forte apoio bipartidário para uma supervisão direcionada que equilibra inovação com segurança pública.

Para a indústria de IA, isso marca uma transição decisiva da incerteza de potenciais moratórias de desenvolvimento para um modelo de governança baseado em risco mais previsível. O consenso emergente sugere que as regulamentações futuras serão adaptadas a casos de uso específicos — como saúde ou finanças — em vez de aplicar uma restrição abrangente à tecnologia em si.

O Fim da Moratória Ampla

O conceito de uma "Moratória de IA" (AI Moratorium) geral ganhou as manchetes em 2025, quando uma cláusula para pausar certos desenvolvimentos de IA foi anexada a um projeto de lei de reconciliação orçamentária. No entanto, o Deputado Obernolte, Presidente do Subcomitê de Ciência, Espaço e Tecnologia da Câmara sobre Pesquisa e Tecnologia, caracterizou agora esse esforço como uma "emenda de mensagem" (messaging amendment) estratégica, em vez de um objetivo político permanente.

"A moratória nunca teve a intenção de ser uma solução a longo prazo", disse Obernolte aos participantes do evento. Ele explicou que a cláusula, que passou na Câmara antes de ser removida pelo Senado, foi projetada para forçar uma conversa necessária sobre a divisão de poder entre os reguladores estaduais e federais. O choque de sua aprovação na Câmara serviu ao seu propósito: destacou a urgência de uma estratégia nacional coesa para evitar um cenário fragmentado de leis estaduais conflitantes.

Com essa conversa agora madura, os legisladores estão descartando o instrumento contundente de uma moratória em favor de ferramentas de precisão. O foco mudou para a definição de "vias" federais claras que estabelecem onde a preempção (preemption) nacional é necessária para proteger o comércio interestadual, ao mesmo tempo que deixa espaço para os estados atuarem como "laboratórios de democracia" (laboratories of democracy) em áreas específicas, como segurança infantil e compras governamentais.

Como Funciona o Modelo Setor por Setor

O cerne da nova estrutura legislativa é o reconhecimento de que nem toda IA carrega o mesmo perfil de risco. Tratar um algoritmo de recomendação em um videogame com o mesmo escrutínio que uma ferramenta de diagnóstico alimentada por IA em um hospital é cada vez mais visto como ineficiente e sufocante para a inovação.

Obernolte ilustrou essa distinção usando uma analogia médica. "A FDA já emitiu milhares de permissões para o uso de IA e dispositivos médicos", observou ele. "Pode haver um modelo que seja inaceitavelmente arriscado em algo como um marca-passo que será implantado no corpo de alguém, mas completamente benigno em outro contexto de implantação."

Sob a abordagem específica por setor proposta, as agências federais individuais seriam capacitadas para regular a IA dentro de seus próprios domínios. Isso permite uma supervisão profunda e consciente do contexto:

  • Saúde: A FDA continua a gerenciar a IA em dispositivos médicos.
  • Finanças: A SEC e os reguladores bancários supervisionam as negociações algorítmicas e a subscrição de crédito.
  • Transporte: O DOT gerencia os padrões de segurança de veículos autônomos.

Este método evita as armadilhas de uma lei de "tamanho único" que poderia inadvertidamente paralisar aplicações de baixo risco, enquanto falha em policiar adequadamente sistemas de alto risco.

Codificando o CAISI: O Motor da Padronização

Um pilar central da proposta de Obernolte é a codificação estatutária do Centro de Padrões e Inovação em IA (Center for AI Standards and Innovation — CAISI). Anteriormente conhecido como Instituto de Segurança de IA dos EUA sob a administração anterior, o órgão foi renomeado e mantido sob o Presidente Trump.

Obernolte visualiza o CAISI não como um regulador direto, mas como um centro de recursos técnicos — uma "fábrica" que produz as réguas de medição e os protocolos de segurança que outras agências precisam. O mandato do CAISI incluiria:

  1. Criar um inventário de ferramentas técnicas e metodologias de avaliação.
  2. Desenvolver uma "caixa de ferramentas regulatória" de padrões.
  3. Distribuir essas ferramentas para reguladores específicos do setor (como a FDA ou a FAA) para implementar dentro de suas jurisdições.

Ao centralizar a expertise técnica dentro do CAISI, enquanto descentraliza a aplicação para as agências setoriais, o Congresso visa criar um sistema que seja cientificamente rigoroso e legalmente flexível.

Navegando no Mosaico Federal-Estadual

Uma das preocupações mais urgentes para os desenvolvedores de IA tem sido o surgimento de um "mosaico" (patchwork) de regulamentações em nível estadual. Sem um padrão federal, as empresas enfrentam potencialmente 50 regimes de conformidade diferentes. A nova estrutura visa resolver isso por meio da preempção federal, uma postura apoiada pela Ordem Executiva do Presidente Trump de dezembro de 2025.

A Ordem Executiva determinou uma revisão das leis estaduais para identificar aquelas que impõem encargos indevidos aos desenvolvedores de IA. No entanto, ela também estabeleceu exceções específicas onde a regulamentação estadual é incentivada.

Divisão Proposta de Autoridade Regulatória

Domínio Regulatório Autoridade Área de Foco
Comércio Interestadual Federal (Preemptivo) Segurança do modelo de IA central, tráfego de dados interestadual, proteções de direitos fundamentais.
Segurança Infantil Estadual e Local Proteções para menores online, ambientes educacionais.
Infraestrutura Estadual e Local Zoneamento para centros de dados, uso de energia, infraestrutura de computação local.
Compras Governamentais Estadual e Local Regras que regem como as agências estaduais compram e usam ferramentas de IA.

Verificação de Formato: A tabela acima usa barras verticais simples, inclui uma linha separadora com pelo menos três traços por coluna e não contém caracteres inválidos.

Caminhos Bipartidários a Seguir

Apesar do clima político frequentemente polarizado em Washington, a governança de IA (AI governance) continua sendo uma área rara de colaboração entre partidos. Obernolte enfatizou que, embora os partidos possam discordar em questões mais amplas, o trabalho dentro dos comitês de ciência e tecnologia é "surpreendentemente bipartidário".

Para aprovar uma legislação substantiva, a estrutura precisará de 60 votos no Senado, exigindo um projeto de lei que atraia tanto republicanos quanto democratas. A abordagem setor por setor parece ser esse compromisso. Ela aborda as preocupações republicanas sobre o excesso de regulamentação ao evitar um "Czar da IA" (AI Czar) central ou um regime de licenciamento rigoroso, ao mesmo tempo que satisfaz as prioridades democratas em relação à segurança e aos padrões éticos por meio de agências capacitadas.

Para os leitores da Creati.ai e a comunidade de IA em geral, essa mudança legislativa sinaliza um mercado em amadurecimento. A era do debate existencial sobre pausar ou não a IA está terminando; a era da conformidade prática e específica do setor está começando. Os desenvolvedores devem se preparar para um ambiente regulatório que pergunta não se a IA pode ser construída, mas como ela se encaixa com segurança no setor específico que atende.

Em Destaque