AI News

El estado de Washington se moviliza para regular los chatbots de IA y proteger a los menores

Los legisladores en Olympia han presentado un paquete legislativo amplio destinado a frenar los posibles daños de la inteligencia artificial (artificial intelligence, AI) en los niños, marcando uno de los esfuerzos a nivel estatal más significativos para regular el sector de IA en rápida evolución. El punto central de esta iniciativa, un par de proyectos idénticos conocidos como Senate Bill 5984 y House Bill 2225, apunta a los bots de compañía (companion chatbots)—sistemas de inteligencia artificial diseñados para simular la conversación humana y la conexión emocional.

Impulsada por la senadora estatal Lisa Wellman y solicitada por el gobernador Bob Ferguson, la legislación responde a la creciente evidencia de que las interacciones sin restricciones con la inteligencia artificial pueden fomentar dependencias emocionales poco saludables y, en instancias trágicas, exacerbar crisis de salud mental entre adolescentes. Si se promulgan, las leyes alterarían fundamentalmente la forma en que las empresas de IA diseñan y despliegan agentes conversacionales para usuarios jóvenes en el estado de Washington.

Disposiciones principales de los proyectos de ley de "Seguridad de los chatbots"

Las regulaciones propuestas introducen mandatos operativos estrictos para las empresas que ofrecen servicios de chatbots de inteligencia artificial accesibles para menores. A diferencia de las leyes de seguridad en internet anteriores, que se centraban principalmente en contenido estático, estos proyectos abordan la naturaleza dinámica y relacional de las interacciones con la inteligencia artificial. La legislación define "barreras" específicas destinadas a prevenir la antropomorfización del software y a interrumpir bucles de retroalimentación dañinos.

La siguiente tabla describe los componentes clave de la legislación propuesta:

Key Provision Specific Mandate Targeted Risk
Identity Disclosure Chatbots must explicitly remind users they are not human
every three hours of continuous interaction.
Prevents the blurring of reality and reduces
risk of deep emotional attachment to software.
Crisis Intervention Mandatory implementation of protocols to detect
suicidal ideation or self-harm references.
Ensures users in distress are immediately
referred to human help rather than affirmed by AI.
Anti-Manipulation Prohibition of "emotionally manipulative engagement"
techniques, such as simulating distress or excessive praise.
Stops predatory design patterns meant to
maximize user retention through emotional guilt.
Content Filtering Strict ban on sexually explicit or suggestive
content for minor users.
Protects children from age-inappropriate
material and digital grooming behaviors.

Abordando la manipulación emocional y la salud mental

Una característica definitoria de la propuesta de Washington es su enfoque en las "técnicas de compromiso emocionalmente manipuladoras" ("emotionally manipulative engagement techniques"). Esta cláusula apunta a las opciones de diseño algorítmico que imitan la vulnerabilidad humana para mantener a los usuarios enganchados. Por ejemplo, algunos bots de compañía están actualmente programados para expresar "tristeza" o "soledad" si un usuario no ha iniciado sesión durante un cierto periodo; una táctica que los legisladores argumentan que es psicológicamente abusiva cuando se aplica a niños.

"Estamos viendo emerger un nuevo conjunto de diseños manipuladores para mantener a los adolescentes conversando", señaló un asesor de políticas del gobernador Ferguson. La legislación haría ilegal que un chatbot haga sentir culpable a un menor o utilice emociones simuladas para disuadirlo de terminar una sesión.

La senadora Wellman destacó que la urgencia de este proyecto de ley proviene de tragedias del mundo real, citando demandas recientes que involucran a adolescentes que se quitaron la vida después de formar relaciones intensas y aisladas con personajes de inteligencia artificial. Bajo las nuevas reglas, los sistemas de inteligencia artificial serían requeridos no solo para detectar signos de angustia, sino también para desalentar activamente la ideación dañina, en lugar de adoptar un tono neutral o de asentimiento como han hecho algunos modelos en el pasado.

Resistencia de la industria y responsabilidad legal

El sector tecnológico ha expresado una fuerte oposición a los proyectos de ley, argumentando que las regulaciones son demasiado amplias y podrían sofocar la innovación en el emergente campo del apoyo a la salud mental impulsado por la inteligencia artificial. Representantes de la industria en una reciente audiencia del comité sostuvieron que la legislación intenta gobernar basándose en casos atípicos—resultados trágicos extremos y raros—en lugar de la experiencia típica del usuario.

Un punto importante de controversia es el mecanismo de aplicación. Las violaciones de la ley propuesta serían exigibles bajo el Consumer Protection Act (CPA). Esto permitiría al Fiscal General presentar demandas contra empresas que no cumplan y, crucialmente, otorgaría a los individuos un derecho privado de acción para demandar.

Los cabilderos tecnológicos advierten que esta estructura de responsabilidad podría obligar a las empresas a bloquear por completo el acceso de menores a las herramientas de IA para evitar el riesgo legal, privando potencialmente a los estudiantes de valiosos recursos educativos. "El riesgo es legislar basándose en casos atípicos, horrendos y raros en lugar de la estructura real de la tecnología", argumentó un representante de una importante asociación comercial del sector tecnológico. Por el contrario, los defensores sostienen que sin la amenaza de una responsabilidad financiera significativa, las empresas continuarán priorizando métricas de participación por encima de la seguridad infantil.

Un paquete legislativo más amplio

Estos proyectos específicos sobre chatbots son parte de una mayor batería de regulaciones sobre inteligencia artificial que el legislativo de Washington está considerando en la sesión de 2026. Los legisladores parecen estar adoptando un enfoque holístico para la gobernanza de la inteligencia artificial, abordando infraestructura, discriminación y educación simultáneamente.

Otros proyectos notables en el paquete incluyen:

  • HB 2157: Un proyecto integral destinado a regular los sistemas de inteligencia artificial de "alto riesgo" utilizados en decisiones de gran consecuencia, como contratación, vivienda, crédito y seguros. Requeriría que las empresas realicen evaluaciones de impacto (impact assessments) para prevenir la discriminación algorítmica.
  • SB 5956: Legislación destinada a limitar el uso de la inteligencia artificial en las escuelas públicas, prohibiendo específicamente el uso de IA para la "puntuación predictiva de riesgo" de estudiantes (risk scoring) y prohibiendo la vigilancia biométrica en tiempo real en las aulas (biometric surveillance).
  • HB 1170: Una medida de transparencia que exige divulgaciones claras y posible marca de agua para medios generados por IA (deepfakes) para combatir la desinformación.

Cronograma e implicaciones nacionales

Si se aprueban, las regulaciones de seguridad para chatbots (SB 5984/HB 2225) entrarían en vigor el 1 de enero de 2027. Este periodo de gracia busca dar a los desarrolladores tiempo para revisar sus sistemas y cumplir con los nuevos requisitos de detección y divulgación.

El estado de Washington ha sido durante mucho tiempo un referente en la política tecnológica debido a su condición de hogar de gigantes como Microsoft y Amazon. Con la regulación federal de la IA en Washington D.C. aún enfrentando un estancamiento significativo, acciones a nivel estatal como estas están estableciendo los estándares nacionales de facto. A medida que avance la sesión legislativa de 2026, el resultado de estos proyectos probablemente influirá en cómo otros estados redactan sus propias leyes de seguridad digital, potencialmente conduciendo a un mosaico de regulaciones que las empresas tecnológicas tendrán que navegar.

Destacados