
Washington, D.C. – En un cambio significativo para la política tecnológica de los Estados Unidos, los líderes del Congreso se están alejando de las pausas generales en el desarrollo de la inteligencia artificial, favoreciendo en su lugar un marco regulatorio matizado sector por sector. En su intervención en la Incompas Policy Summit esta semana, el representante Jay Obernolte (R-Calif.) aclaró el camino legislativo a seguir, señalando un fuerte apoyo bipartidista para una supervisión específica que equilibre la innovación con la seguridad pública.
Para la industria de la IA, esto marca una transición decisiva desde la incertidumbre de las posibles moratorias de desarrollo hacia un modelo de gobernanza más predecible y basado en el riesgo. El consenso emergente sugiere que las regulaciones futuras se adaptarán a casos de uso específicos, como la atención médica o las finanzas, en lugar de aplicar una restricción general a la tecnología en sí misma.
El concepto de una "Moratoria de IA" (AI Moratorium) general ganó titulares en 2025 cuando se adjuntó una disposición para pausar ciertos desarrollos de IA a un proyecto de ley de reconciliación presupuestaria. Sin embargo, el representante Obernolte, presidente del Subcomité de Ciencia, Espacio y Tecnología de la Cámara de Representantes sobre Investigación y Tecnología, ha caracterizado ahora ese esfuerzo como una "enmienda de mensaje" (messaging amendment) estratégica en lugar de un objetivo de política permanente.
"La moratoria nunca tuvo la intención de ser una solución a largo plazo", dijo Obernolte a los asistentes a la cumbre. Explicó que la disposición, que fue aprobada por la Cámara antes de ser eliminada por el Senado, fue diseñada para forzar una conversación necesaria sobre la división de poder entre los reguladores estatales y federales. El impacto de su aprobación en la Cámara cumplió su propósito: destacó la urgencia de una estrategia nacional cohesiva para evitar un panorama fragmentado de leyes estatales en conflicto.
Con esa conversación ahora madura, los legisladores están descartando el instrumento contundente de una moratoria en favor de herramientas de precisión. El enfoque se ha desplazado a definir "carriles" (lanes) federales claros que establezcan dónde es necesaria la prevalencia federal (federal preemption) para proteger el comercio interestatal, dejando espacio para que los estados actúen como "laboratorios de democracia" (laboratories of democracy) en áreas específicas como la seguridad infantil y las adquisiciones gubernamentales.
El núcleo del nuevo marco legislativo es el reconocimiento de que no toda la IA conlleva el mismo perfil de riesgo. Tratar un algoritmo de recomendación en un videojuego con el mismo escrutinio que una herramienta de diagnóstico impulsada por IA en un hospital se ve cada vez más como algo ineficiente y que asfixia la innovación.
Obernolte ilustró esta distinción utilizando una analogía médica. "La FDA ya ha emitido miles de permisos para el uso de IA y dispositivos médicos", señaló. "Podría haber un modelo que sea inaceptablemente riesgoso en algo como un marcapasos que se va a implantar en el cuerpo de alguien, pero completamente benigno en otro contexto de despliegue".
Bajo el enfoque sectorial específico propuesto, las agencias federales individuales estarían facultadas para regular la IA dentro de sus propios dominios. Esto permite una supervisión profunda y consciente del contexto:
Este método evita las trampas de una ley de "talla única" (one-size-fits-all) que podría paralizar inadvertidamente aplicaciones de bajo riesgo mientras no logra vigilar adecuadamente los sistemas de alto riesgo.
Un pilar central de la propuesta de Obernolte es la codificación estatutaria del Centro de Estándares e Innovación de IA (Center for AI Standards and Innovation, CAISI). Anteriormente conocido como el Instituto de Seguridad de IA de EE. UU. (U.S. AI Safety Institute) bajo la administración anterior, el organismo ha sido renombrado y continuado bajo el presidente Trump.
Obernolte visualiza al CAISI no como un regulador directo, sino como un centro de recursos técnicos: una "fábrica" que produce las varas de medir y los protocolos de seguridad que otras agencias necesitan. El mandato del CAISI incluiría:
Al centralizar la experiencia técnica dentro del CAISI mientras se descentraliza la aplicación a las agencias sectoriales, el Congreso tiene como objetivo crear un sistema que sea tanto científicamente riguroso como legalmente flexible.
Una de las preocupaciones más urgentes para los desarrolladores de IA ha sido el surgimiento de un "mosaico" de regulaciones a nivel estatal. Sin un estándar federal, las empresas se enfrentan potencialmente a 50 regímenes de cumplimiento diferentes. El nuevo marco pretende resolver esto a través de la prevalencia federal, una postura respaldada por la Orden Ejecutiva del presidente Trump de diciembre de 2025.
La Orden Ejecutiva ordenó una revisión de las leyes estatales para identificar aquellas que imponen cargas indebidas a los desarrolladores de IA. Sin embargo, también estableció excepciones específicas donde se fomenta la regulación estatal.
Propuesta de división de la autoridad regulatoria
| Dominio regulatorio | Autoridad | Área de enfoque |
|---|---|---|
| Comercio interestatal | Federal (Preferente) | Seguridad del modelo de IA central, tráfico de datos interestatal, protecciones de derechos fundamentales. |
| Seguridad infantil | Estatal y local | Protecciones para menores en línea, entornos educativos. |
| Infraestructura | Estatal y local | Zonificación para centros de datos, uso de energía, infraestructura de computación local. |
| Adquisiciones | Estatal y local | Reglas que rigen cómo las agencias estatales compran y utilizan herramientas de IA. |
Verificación de formato: La tabla anterior utiliza barras verticales simples, incluye una línea separadora con al menos tres guiones por columna y no contiene caracteres no válidos.
A pesar del clima político a menudo polarizado en Washington, la gobernanza de la IA (AI governance) sigue siendo un área poco común de colaboración entre partidos. Obernolte enfatizó que, si bien los partidos pueden estar en desacuerdo en temas más amplios, el trabajo dentro de los comités de ciencia y tecnología es "sorprendentemente bipartidista".
Para aprobar una legislación sustantiva, el marco necesitará 60 votos en el Senado, lo que requiere un proyecto de ley que atraiga tanto a republicanos como a demócratas. El enfoque sector por sector parece ser ese compromiso. Aborda las preocupaciones republicanas sobre el exceso de regulación al evitar un "Zar de la IA" central o un régimen de licencias de mano dura, mientras satisface las prioridades demócratas con respecto a la seguridad y los estándares éticos a través de agencias empoderadas.
Para los lectores de Creati.ai y la comunidad de IA en general, este giro legislativo señala un mercado en maduración. La era del debate existencial sobre si pausar la IA está terminando; la era del cumplimiento práctico y específico de la industria está comenzando. Los desarrolladores deben prepararse para un entorno regulatorio que no pregunte si se puede construir la IA, sino cómo encaja de manera segura en el sector específico al que sirve.