AI News

El estado de la regulación de la IA en 2026: los estados llenan el vacío federal

A medida que nos adentramos en febrero de 2026, el panorama de la regulación de la inteligencia artificial(Artificial Intelligence, AI) en los Estados Unidos está cambiando drásticamente. Mientras que muchos observadores de la industria anticipaban que este año surgiría un marco federal integral, las señales recientes de la Comisión Federal de Comercio (FTC) sugieren una pausa significativa en Washington, D.C. Sin embargo, la naturaleza aborrece el vacío, y las legislaturas estatales se están moviendo rápidamente para llenarlo.

Para los líderes de RR. HH. y los profesionales de la gestión del talento, el centro de atención se ha desplazado del Capitolio a las costas. Hawái y el estado de Washington han presentado nuevos y robustos proyectos de ley que abordan el uso de la IA en la contratación y las decisiones en el lugar de trabajo. Estas propuestas, específicamente la HB 2500 de Hawái y la HB 2157 de Washington, representan un punto de inflexión: estamos pasando de discusiones teóricas sobre la "IA ética" a obligaciones legales concretas en materia de transparencia, auditorías de sesgo y rendición de cuentas.

El enfoque de doble vía de Hawái para la rendición de cuentas algorítmica

A menudo se asocia a Hawái con el turismo, pero en 2026 se está posicionando como pionera en derechos digitales. La legislatura estatal ha presentado dos piezas legislativas significativas, la HB 2500 y la SB 2967, que impondrían nuevas y estrictas obligaciones tanto a los proveedores que desarrollan herramientas de IA como a los empleadores que las implementan.

La HB 2500 propone un marco integral para los sistemas de decisión algorítmica(Algorithmic Decision Systems, ADS). El proyecto de ley define los ADS de manera amplia para incluir cualquier herramienta basada en máquinas que asista o reemplace la toma de decisiones humana en asuntos de consecuencia, citando específicamente la contratación, los ascensos y la disciplina de los empleados.

Bajo esta propuesta, la responsabilidad es compartida pero distinta. Se requeriría que los desarrolladores de herramientas de IA revelen los usos previsibles y los riesgos legales conocidos a las empresas que compran su software. Para los empleadores (definidos como "implementadores"), el listón se sitúa aún más alto. Antes de utilizar un ADS que afecte materialmente al empleo, las empresas deben notificar con antelación a los candidatos y empleados. Además, si se toma una decisión basada en los resultados del sistema, el empleador debe proporcionar una revelación posterior al uso identificando las características personales específicas en las que se basó el sistema, hasta los 20 factores más influyentes.

Complementando esto se encuentra la SB 2967, presentada como un proyecto de ley de protección al consumidor. Categoriza la IA relacionada con el empleo como de "alto riesgo" (high-risk). Este proyecto de ley va más allá de la simple transparencia; exige que los implementadores realicen evaluaciones de impacto anuales para detectar impactos y sesgos dispares. También crea un derecho a la corrección y a la revisión humana, prohibiendo efectivamente los rechazos automatizados de "caja negra" sin una vía de apelación.

El impulso antidiscriminación de Washington

Mientras tanto, en el noroeste del Pacífico, el estado de Washington está avanzando en su propia agenda regulatoria con la HB 2157. Conocido como un centro de innovación tecnológica, Washington está intentando equilibrar el crecimiento de la industria con la protección de los derechos civiles.

La HB 2157 se centra en gran medida en prevenir la discriminación por IA en decisiones de alto riesgo, incluyendo la contratación y los seguros médicos. A diferencia de las leyes que priorizan la transparencia y que simplemente requieren un descargo de responsabilidad, este proyecto de ley obligaría a las empresas a tomar medidas activas para proteger a las personas de la discriminación integrada en los modelos algorítmicos.

El proyecto de ley se aplica a empresas con más de 100,000 dólares en ingresos anuales, un umbral que captura a la gran mayoría de los empleadores que utilizan software de RR. HH. empresarial. Se dirige específicamente al "efecto disuasorio" de los algoritmos sesgados, exigiendo que los desarrolladores e implementadores demuestren que sus herramientas no desfavorecen a las clases protegidas. Este movimiento legislativo sigue el trabajo del Grupo de Trabajo de IA del Estado de Washington, establecido anteriormente, que ha estado publicando recomendaciones sobre "principios rectores de la IA en el lugar de trabajo".

El enfoque de Washington es particularmente notable porque señala un choque potencial con la industria tecnológica. Los grupos empresariales ya han expresado su preocupación de que una responsabilidad tan estricta por los resultados algorítmicos podría desalentar por completo el uso de herramientas que mejoran la eficiencia. Sin embargo, los patrocinadores del proyecto de ley argumentan que, ante la ausencia de directrices federales, la supervisión estatal es esencial para proteger los derechos de los trabajadores.

La pausa federal: un marcado contraste

La urgencia observada en las cámaras estatales contrasta fuertemente con el clima actual a nivel federal. A finales de enero de 2026, la FTC señaló un menor interés por nuevas regulaciones de IA. En una conferencia sobre el Estado de la Unión de la Privacidad, el director de la Oficina de Protección al Consumidor de la FTC, Chris Mufarrige, declaró que "no hay interés por nada relacionado con la IA" en los planes inmediatos de reglamentación de la agencia.

Esto se alinea con una postura desreguladora más amplia bajo la administración actual, que enfatiza la eliminación de barreras a la innovación. La FTC ha indicado que confiará en la aplicación "moderada" de las leyes existentes en lugar de crear nuevos estatutos específicos para la IA. Por ejemplo, aunque la agencia resolvió recientemente un caso relacionado con asistentes de escritura de IA, dejó de lado de manera efectiva una reglamentación más amplia que habría estandarizado las auditorías de IA a nivel nacional.

Para los empleadores multiestatales, esto crea un entorno de cumplimiento complejo. En lugar de un estándar federal único, las empresas deben ahora navegar por un "mosaico" de leyes estatales: cumplir con reglas de transparencia estrictas en Hawái, mandatos antidiscriminación en Washington y requisitos de auditoría de sesgo en la ciudad de Nueva York, todo mientras la orientación federal sigue siendo mínima.

Comparación de las principales propuestas estatales

Para ayudar a los equipos de Gestión del Talento y Legal de RR. HH. a navegar por estos requisitos emergentes, la siguiente tabla desglosa los componentes principales de los nuevos proyectos de ley en Hawái y Washington.

Característica Hawái (HB 2500 / SB 2967) Washington (HB 2157)
Enfoque principal Transparencia y explicación Antidiscriminación y protección
Activador Uso de "Sistemas de decisión algorítmica" Uso en "Decisiones de alto riesgo"
Obligaciones del empleador Aviso anticipado; Revelación de factores post-decisión Proteger contra la discriminación; Prueba de ausencia de sesgo
Derechos de los candidatos Derecho a corregir datos; Revisión humana Protección contra el impacto dispar
Requisitos de auditoría Evaluaciones de impacto anuales (SB 2967) Implícito en la demostración de no discriminación
Umbral Aplicación amplia Ingresos > 100,000 $/año

Qué significa esto para los empleadores en 2026

La divergencia entre la ambición estatal y la inacción federal coloca a los empleadores en una posición precaria. Esperar a un estándar nacional ya no es una estrategia viable. Los departamentos de RR. HH. deben adaptar proactivamente sus estrategias de cumplimiento de Derecho Laboral para cumplir con los requisitos estatales más exigentes, independientemente de dónde se encuentre su sede.

1. Audite su inventario de IA
Muchas organizaciones sufren de "IA en la sombra" (shadow AI), donde gerentes de contratación individuales utilizan herramientas no autorizadas para el filtrado o las entrevistas. El liderazgo de RR. HH. debe realizar un inventario completo de todas las herramientas algorítmicas utilizadas en el ciclo de vida de la contratación para determinar cuáles entran en las definiciones de toma de decisiones de "alto riesgo" o "consecuente".

2. Exija transparencia a los proveedores
La carga de la prueba se está desplazando hacia los empleadores ("implementadores"), pero los datos técnicos residen en los proveedores. Los contratos deben actualizarse para exigir que los proveedores proporcionen las revelaciones específicas exigidas por leyes como la HB 2500 de Hawái. Si un proveedor no puede explicar los "20 factores más influyentes" de su modelo, su uso podría ser efectivamente ilegal en ciertas jurisdicciones.

3. Prepárese para los requisitos de "humano en el bucle"
Tanto Hawái como Washington enfatizan la necesidad de supervisión humana. Los días de los correos electrónicos de rechazo totalmente automatizados están contados. Los empleadores deben establecer flujos de trabajo donde la IA sirva como apoyo a la decisión, no como el tomador de decisiones final, y garantizar que un revisor humano esté disponible para gestionar apelaciones o correcciones.

El camino a seguir

El año 2026 estará definido por este tira y afloja entre las protecciones a nivel estatal y la desregulación federal. Mientras la FTC hace una pausa, estados como Hawái y Washington se aseguran de que la IA en el lugar de trabajo no opere en una zona gris legal. Para las empresas con visión de futuro, esta es una oportunidad para generar confianza. Al adoptar voluntariamente altos estándares de transparencia y equidad, las organizaciones pueden preparar sus prácticas de contratación para el futuro frente a la inevitable ola de regulación que apenas comienza a romper en la orilla.

Destacados