
À medida que avançamos em fevereiro de 2026, o cenário da regulação de Inteligência Artificial (Artificial Intelligence - IA) nos Estados Unidos está mudando drasticamente. Embora muitos observadores do setor antecipassem o surgimento de uma estrutura federal abrangente este ano, sinais recentes da Federal Trade Commission (FTC) sugerem uma pausa significativa em Washington, D.C. No entanto, a natureza abomina o vácuo, e as legislaturas estaduais estão se movendo rapidamente para preenchê-lo.
Para líderes de RH e profissionais de gestão de talentos, o foco mudou do Capitólio para as costas. O Havaí e o estado de Washington introduziram novos projetos de lei robustos visando o uso de IA em contratação e decisões no local de trabalho. Essas propostas, especificamente a HB 2500 do Havaí e a HB 2157 de Washington, representam um ponto de virada: estamos saindo de discussões teóricas sobre "IA ética" para obrigações legais concretas em relação à transparência, auditorias de viés e responsabilidade.
O Havaí é frequentemente associado ao turismo, mas em 2026, está se posicionando como pioneiro em direitos digitais. A legislatura estadual introduziu duas peças legislativas significativas — HB 2500 e SB 2967 — que imporiam novas obrigações rigorosas tanto aos fornecedores que constroem ferramentas de IA quanto aos empregadores que as utilizam.
A HB 2500 propõe uma estrutura abrangente para "Sistemas de Decisão Algorítmica" (Algorithmic Decision Systems - ADS). O projeto define ADS amplamente para incluir qualquer ferramenta baseada em máquina que auxilie ou substitua a tomada de decisão humana em assuntos de consequência, citando especificamente contratação, promoção e disciplina de funcionários.
Sob esta proposta, a responsabilidade é compartilhada, mas distinta. Os desenvolvedores de ferramentas de IA seriam obrigados a divulgar usos previsíveis e riscos legais conhecidos às empresas que compram seu software. Para os empregadores (definidos como "implementadores"), o nível de exigência é ainda maior. Antes de usar um ADS que afete materialmente o emprego, as empresas devem fornecer um aviso prévio aos candidatos e funcionários. Além disso, se uma decisão for tomada com base no resultado do sistema, o empregador deve fornecer uma divulgação pós-uso identificando as características pessoais específicas nas quais o sistema se baseou — até os 20 fatores mais influentes.
Complementando isso está a SB 2967, introduzida como um projeto de lei de proteção ao consumidor. Ela categoriza a IA relacionada ao emprego como "de alto risco". Este projeto vai além da simples transparência; ele exige que os implementadores realizem avaliações de impacto anuais para testar impacto díspar e viés. Também cria um direito à correção e revisão humana, proibindo efetivamente rejeições automatizadas de "caixa preta" (black box) sem um caminho para recurso.
Enquanto isso, no Noroeste do Pacífico, o estado de Washington está avançando com sua própria agenda regulatória com a HB 2157. Conhecido como um centro de inovação tecnológica, Washington está tentando equilibrar o crescimento da indústria com as proteções de direitos civis.
A HB 2157 concentra-se fortemente na prevenção da discriminação por IA (AI discrimination) em decisões de alto risco, incluindo contratação e seguro médico. Ao contrário das leis focadas em transparência que exigem apenas um aviso de isenção de responsabilidade, este projeto de lei obrigaria as empresas a tomar medidas ativas para proteger os indivíduos contra a discriminação incorporada em modelos algorítmicos.
O projeto de lei se aplica a empresas com receita anual superior a US$ 100.000, um limite que captura a vasta maioria dos empregadores que usam software de RH empresarial. Ele visa especificamente o "efeito inibidor" (chilling effect) de algoritmos tendenciosos, exigindo que desenvolvedores e implementadores provem que suas ferramentas não desfavorecem classes protegidas. Este movimento legislativo segue o trabalho da Força-Tarefa de IA do Estado de Washington, estabelecida anteriormente, que tem divulgado recomendações sobre "princípios orientadores de IA no local de trabalho".
A abordagem de Washington é particularmente notável porque sinaliza um potencial conflito com a indústria de tecnologia. Grupos empresariais já expressaram preocupações de que tal responsabilidade estrita pelos resultados algorítmicos poderia desencorajar totalmente o uso de ferramentas que aumentam a eficiência. No entanto, os patrocinadores do projeto argumentam que, na ausência de diretrizes federais, a supervisão estadual é essencial para proteger os direitos dos trabalhadores.
A urgência vista nas assembleias estaduais contrasta fortemente com o humor atual em nível federal. No final de janeiro de 2026, a FTC sinalizou um apetite reduzido por novas regulações de IA. Falando em uma conferência sobre o Estado da União da Privacidade, o Diretor do Departamento de Proteção ao Consumidor da FTC, Chris Mufarrige, afirmou que "não há apetite para nada relacionado à IA" no pipeline imediato de regulamentação da agência.
Isso se alinha com uma postura desreguladora mais ampla sob a atual administração, que enfatiza a remoção de barreiras à inovação. A FTC indicou que confiará na aplicação "comedida" das leis existentes, em vez de criar novos estatutos específicos para IA. Por exemplo, embora a agência tenha resolvido recentemente um caso sobre assistentes de escrita de IA, ela efetivamente deixou de lado uma regulamentação mais ampla que teria padronizado as auditorias de IA nacionalmente.
Para empregadores que atuam em vários estados, isso cria um ambiente de conformidade complexo. Em vez de um padrão federal único, as empresas devem agora navegar por uma "colcha de retalhos" de leis estaduais — cumprindo regras rígidas de transparência no Havaí, mandatos antidiscriminação em Washington e requisitos de auditoria de viés na cidade de Nova York, tudo isso enquanto a orientação federal permanece mínima.
Para ajudar as equipes de Gestão de Talentos e Jurídico de RH a navegar por esses requisitos emergentes, a tabela a seguir detalha os componentes principais dos novos projetos de lei no Havaí e em Washington.
| Recurso | Havaí (HB 2500 / SB 2967) | Washington (HB 2157) |
|---|---|---|
| Foco Principal | Transparência e Explicação | Antidiscriminação e Proteção |
| Gatilho | Uso de "Sistemas de Decisão Algorítmica" | Uso em "Decisões de Alto Risco" |
| Obrigações do Empregador | Aviso prévio; Divulgação de fatores pós-decisão | Proteção contra discriminação; Prova de ausência de viés |
| Direitos do Candidato | Direito de corrigir dados; Revisão humana | Proteção contra impacto díspar |
| Requisitos de Auditoria | Avaliações de impacto anuais (SB 2967) | Implícito na prova de não discriminação |
| Limite | Aplicação ampla | Receita > US$ 100.000/ano |
A divergência entre a ambição estadual e a inação federal coloca os empregadores em uma posição precária. Esperar por um padrão nacional não é mais uma estratégia viável. Os departamentos de RH devem adaptar proativamente suas estratégias de conformidade de Direito do Trabalho para atender aos requisitos estaduais mais rigorosos, independentemente de onde sua sede esteja localizada.
1. Audite seu Inventário de IA
Muitas organizações sofrem com a "IA oculta" (shadow AI), onde gestores de contratação individuais usam ferramentas não autorizadas para triagem ou entrevistas. A liderança de RH deve realizar um inventário completo de todas as ferramentas algorítmicas usadas no ciclo de vida de contratação para determinar quais se enquadram nas definições de tomada de decisão de "alto risco" ou "consequencial".
2. Exija Transparência dos Fornecedores
O ônus da prova está mudando para os empregadores ("implementadores"), mas os dados técnicos residem com os fornecedores. Os contratos devem ser atualizados para exigir que os fornecedores forneçam as divulgações específicas exigidas por leis como a HB 2500 do Havaí. Se um fornecedor não puder explicar os "20 principais fatores influentes" de seu modelo, seu uso pode ser efetivamente ilegal em certas jurisdições.
3. Prepare-se para Requisitos de "Humano no Circuito"
Tanto o Havaí quanto Washington enfatizam a necessidade de supervisão humana. Os dias de e-mails de rejeição totalmente automatizados estão contados. Os empregadores devem estabelecer fluxos de trabalho onde a IA sirva como suporte à decisão, não como o tomador de decisão final, e garantir que um revisor humano esteja disponível para lidar com recursos ou correções.
O ano de 2026 será definido por este cabo de guerra entre proteções em nível estadual e desregulamentação federal. Enquanto a FTC faz uma pausa, estados como o Havaí e Washington estão garantindo que a IA no Local de Trabalho não opere em uma zona cinzenta legal. Para empresas progressistas, esta é uma oportunidade de construir confiança. Ao adotar voluntariamente altos padrões de transparência e justiça, as organizações podem preparar suas práticas de contratação para o futuro contra a inevitável onda de regulação que está apenas começando a quebrar na costa.