AI News

DOT se apoya en Google Gemini para acelerar la elaboración de normativas federales

La intersección entre la inteligencia artificial y la gobernanza federal ha alcanzado un momento crucial cuando la administración Trump revela planes para desplegar la IA de Google, Gemini, para redactar regulaciones federales. En un movimiento descrito por funcionarios como una "revolución" en la elaboración de normas, el Departamento de Transporte de los Estados Unidos (DOT) se está posicionando como la vanguardia de este cambio automatizado, con el objetivo de comprimir drásticamente el tiempo requerido para crear marcos regulatorios complejos.

Esta iniciativa, que marca una desviación significativa de los procesos burocráticos tradicionales, busca aprovechar las capacidades generativas de los Modelos de Lenguaje a Gran Escala (Large Language Models, LLMs) para producir borradores de regulaciones en una fracción del tiempo habitual. Si bien los partidarios afirman que esto eliminará los cuellos de botella y modernizará la eficiencia gubernamental, la estrategia ha desatado un torbellino de debate en torno a la seguridad, la precisión y la integridad legal de delegar la gobernanza de alto riesgo a algoritmos.

El estándar de "suficientemente bueno": Una nueva filosofía para la gobernanza

En el corazón de esta iniciativa hay un cambio fundamental en la filosofía de la calidad regulatoria. Gregory Zerzan, el asesor general del DOT, según se informa ha impulsado una doctrina que prioriza la velocidad y el volumen sobre la perfección meticulosa. Durante reuniones internas, Zerzan enfatizó que la agencia no requiere "la regla perfecta" ni siquiera una "regla muy buena", sino más bien una que sea "suficientemente buena".

Este enfoque se alinea con una estrategia más amplia para "inundar la zona" con nuevas regulaciones, utilizando la IA para eludir el "punto de estrangulamiento" humano que típicamente ralentiza el proceso de redacción. Bajo este nuevo paradigma, el DOT apunta a acelerar el cronograma desde el concepto hasta un borrador completo listo para la revisión por la Oficina de Información y Asuntos Regulatorios (OIRA) a solo 30 días —un proceso que tradicionalmente se extiende por meses o años.

La dependencia de Google Gemini es central para esta aceleración. Los funcionarios afirman que el modelo de IA puede generar un borrador de regla en aproximadamente 20 minutos, una hazaña que alteraría fundamentalmente el ritmo de la elaboración de normas federales. Sin embargo, este enfoque en la rapidez plantea preguntas críticas sobre la profundidad del análisis jurídico y el escrutinio técnico aplicados a normas que regulan estándares esenciales de seguridad para la aviación, oleoductos y transporte ferroviario.

Gemini al timón: Capacidades y limitaciones

La implementación técnica de este plan implica el uso de una versión de Google Gemini para redactar la mayor parte del texto regulatorio. Durante una demostración en diciembre de 2025, un presentador —identificado por los asistentes como probablemente el director interino de IA, Brian Brotsos— mostró la capacidad del modelo para generar un "Aviso de propuesta de reglamentación" basado únicamente en palabras clave del tema.

La demostración puso de relieve tanto el potencial como las trampas de la actual IA generativa (Generative AI):

  • Afirmaciones de eficiencia: El presentador sugirió que Gemini podría encargarse del 80% al 90% de la carga de trabajo de redacción, dejando al personal humano principalmente como correctores.
  • Calidad de la producción: Aunque la IA produjo con éxito un documento que se parecía a un aviso formal, los testigos señalaron que le faltaba la sustancia textual específica requerida para el Código de Reglamentos Federales (Federal Regulations).
  • Defensa del "ensalada de palabras": En un comentario controvertido, el presentador caracterizó gran parte del texto preambular en los documentos regulatorios como una "ensalada de palabras", lo que implicaba que la capacidad de un LLM para imitar este estilo era suficiente para los fines gubernamentales.

La propuesta sugiere un futuro donde los reguladores humanos pasan de ser autores a ser auditores, supervisando "interacciones IA-a-IA" en vez de involucrarse en una redacción sustantiva profunda. Este modelo presupone que las ganancias de eficiencia compensan los riesgos asociados con las "alucinaciones" de la IA —salidas expresadas con confianza pero incorrectas en hechos, comunes en modelos generativos.

Voces disidentes: preocupaciones sobre seguridad e integridad

La rápida integración de la IA en la elaboración de normas críticas para la seguridad ha suscitado fuertes críticas de personal interno y expertos externos. La preocupación principal es la fiabilidad de los LLMs al interpretar requisitos estatutarios complejos y jurisprudencia sin razonamiento a nivel humano.

Mike Horton, el exdirector interino de IA del DOT, ofreció una crítica tajante, comparando la iniciativa con "hacer que un estudiante de secundaria" redacte regulaciones federales. Su advertencia subraya las posibles consecuencias de errores en sectores donde las regulaciones afectan directamente la seguridad humana. "Ir rápido y romper cosas significa que la gente se va a lastimar", declaró Horton, haciendo referencia al mantra de Silicon Valley que el DOT parece estar adoptando.

Miembros del personal actual también han expresado alarma, señalando que el papel de "humano en el circuito" descrito por la dirección puede ser insuficiente para detectar errores sutiles pero legalmente significativos generados por la IA. El temor es que el puro volumen de texto generado por la IA pueda abrumar a los revisores humanos, conduciendo a un proceso de aprobación automática que crea vulnerabilidades en el marco regulatorio federal.

Análisis comparativo: El debate sobre la elaboración de normas con IA

La divergencia de perspectivas entre los promotores tecnológicos de la administración y los defensores de la seguridad es profunda. La siguiente tabla describe los argumentos centrales en conflicto que están dando forma a este cambio de política.

Perspective Key Arguments Primary focus Representative Stance
Partidarios La IA elimina los cuellos de botella burocráticos; los borradores "suficientemente buenos" son adecuados para las etapas iniciales; los humanos ralentizan el proceso. Velocidad, Volumen, Eficiencia Gregory Zerzan: "Queremos algo suficientemente bueno... Estamos inundando la zona."
Escépticos Los LLMs carecen de razonamiento jurídico y rendición de cuentas; las alucinaciones representan riesgos para la seguridad; las regulaciones complejas requieren experiencia profunda. Seguridad, Precisión, Legalidad Mike Horton: "Que un estudiante de secundaria... haga su elaboración de normas."
Expertos legales La generación en alto volumen no equivale a una toma de decisiones de alta calidad; riesgo de violar los estándares del derecho administrativo. Integridad administrativa Bridget Dooling: "Las palabras no suman una decisión gubernamental de alta calidad."

La estrategia de IA más amplia

La iniciativa del DOT no es un experimento aislado, sino parte de un impulso más amplio de la administración Trump para integrar la inteligencia artificial en el aparato federal. Tras una serie de órdenes ejecutivas que apoyan el desarrollo de la IA, la administración ha señalado una clara intención de utilizar la tecnología para desregular y reestructurar las operaciones gubernamentales.

Esto se alinea con propuestas de órganos asesores externos, como el Departamento de Eficiencia Gubernamental (DOGE) asociado con Elon Musk, que ha abogado por el uso de herramientas automatizadas para reducir drásticamente el código regulatorio federal. La retórica de "punta de lanza" utilizada por funcionarios del DOT sugiere que el Departamento de Transporte está sirviendo como programa piloto para una adopción de herramientas de redacción con IA a nivel gubernamental.

Conclusión

El despliegue de Google Gemini por parte del DOT representa un caso de prueba de alto riesgo para la utilidad de la IA generativa en la administración pública. Si bien la promesa de acelerar el lento proceso de elaboración de normas es innegable, la estrategia pone a prueba los límites de la fiabilidad actual de la IA. A medida que la agencia avanza con la "inundación de la zona", la tensión entre la demanda de velocidad y el imperativo de seguridad probablemente definirá la próxima era de la regulación federal. Para la industria de la IA, esto sirve como un punto de observación crítico: ver si un LLM de propósito general puede realmente dominar la matización del derecho federal, o si las "alucinaciones" de la máquina conducirán a consecuencias en el mundo real.

Destacados