AI News

MIT Research Shatters "Accuracy-on-the-Line" Assumption in Machine Learning

Un estudio revolucionario publicado ayer por investigadores del Massachusetts Institute of Technology (MIT) ha desafiado un principio fundamental de la evaluación del aprendizaje automático (machine learning), revelando que modelos ampliamente considerados de vanguardia (state-of-the-art) basándose en métricas agregadas (aggregated metrics) pueden fallar catastróficamente cuando se despliegan en nuevos entornos.

La investigación, presentada en la conferencia Neural Information Processing Systems (NeurIPS 2025) y publicada en MIT News el 20 de enero de 2026, expone una vulnerabilidad crítica en la forma en que actualmente se evalúan los sistemas de IA. El equipo, dirigido por la profesora asociada Marzyeh Ghassemi y el investigador posdoctoral Olawale Salaudeen, demostró que los modelos de mayor rendimiento con frecuencia dependen de correlaciones espurias (spurious correlations)—atajos ocultos en los datos—que los hacen poco fiables y potencialmente peligrosos en aplicaciones del mundo real como el diagnóstico médico y la detección de discursos de odio.

The "Best-to-Worst" Paradox

Durante años, la comunidad de IA ha operado bajo la suposición de la «precisión en la línea» (accuracy-on-the-line). Este principio sugiere que si un conjunto de modelos se clasifica de mejor a peor según su rendimiento en un conjunto de entrenamiento (en distribución (in-distribution)), ese ordenamiento se mantendrá cuando los modelos se apliquen a un nuevo conjunto de datos no visto (fuera de distribución (out-of-distribution)).

Los hallazgos del equipo del MIT han desmontado efectivamente esta suposición. Su análisis muestra que una alta precisión media a menudo enmascara fallos graves dentro de subpoblaciones específicas. En algunos de los casos más sorprendentes, el modelo identificado como el "mejor" en los datos de entrenamiento originales resultó ser el modelo con peor rendimiento en el 6 al 75 por ciento de los nuevos datos.

«Demostramos que incluso cuando entrenas modelos con grandes cantidades de datos y eliges el mejor modelo por promedio, en un nuevo entorno este "mejor modelo" podría ser el peor», dijo Marzyeh Ghassemi, investigadora principal en el Laboratory for Information and Decision Systems (LIDS).

Medical AI: A High-Stakes Case Study

Las implicaciones de estos hallazgos son más agudas en el sector sanitario, donde la fiabilidad algorítmica es una cuestión de vida o muerte. Los investigadores examinaron modelos entrenados para diagnosticar patologías a partir de radiografías de tórax—una aplicación estándar de la visión por computadora (computer vision) en medicina.

Aunque los modelos parecían robustos en promedio, un análisis granular reveló que se apoyaban en "correlaciones espurias" en lugar de en características anatómicas genuinas. Por ejemplo, un modelo podría aprender a asociar las marcas radiográficas específicas de un hospital con la prevalencia de una enfermedad en lugar de identificar la patología en sí. Cuando se aplicaba a radiografías de otro hospital sin esas marcas específicas, la capacidad predictiva del modelo colapsaba.

Key Findings in Medical Imaging:

  • Models that showed improved overall diagnostic performance actually performed worse on patients with specific conditions, such as pleural effusions or enlarged cardiomediastinum.
  • Spurious correlations were found to be robustly embedded in the models, meaning simply adding more data did not mitigate the risk of the model learning the wrong features.
  • Demographic factors such as age, gender, and race were often spuriously correlated with medical findings, leading to biased decision-making.

Introducing OODSelect: A New Evaluation Paradigm

Para abordar este fallo sistémico, el equipo de investigación desarrolló un enfoque algorítmico novedoso llamado OODSelect (Out-of-Distribution Select). Esta herramienta está diseñada para poner a prueba los modelos identificando específicamente los subconjuntos de datos donde la suposición de la «precisión en la línea» (accuracy-on-the-line) se descompone.

El autor principal Olawale Salaudeen enfatizó que el objetivo es forzar a los modelos a aprender relaciones causales en lugar de atajos estadísticos convenientes. «Queremos que los modelos aprendan a observar las características anatómicas del paciente y luego tomar una decisión basada en eso», declaró Salaudeen. «Pero, en realidad, cualquier cosa que esté en los datos y que esté correlacionada con una decisión puede ser utilizada por el modelo».

OODSelect funciona separando los "ejemplos más mal calculados", lo que permite a los desarrolladores distinguir entre casos límite difíciles de clasificar y fallos genuinos causados por correlaciones espurias.

Comparison of Evaluation Methodologies:

Metric Type Traditional Aggregated Evaluation OODSelect Evaluation
Focus Average accuracy across the entire dataset Performance on specific, vulnerable subpopulations
Assumption Ranking preservation (Accuracy-on-the-line) Ranking disruption (Best can be worst)
Risk Detection Low (Masks failures in minority groups) High (Highlights spurious correlations)
Outcome Optimized for general benchmarks Optimized for robustness and reliability
Application Initial model selection Pre-deployment safety auditing

Beyond Healthcare: Universal Implications

Aunque el estudio hizo hincapié en la imagen médica, los investigadores validaron sus hallazgos en otros dominios críticos, incluyendo histopatología del cáncer y detección de discursos de odio. En tareas de clasificación de texto, los modelos con frecuencia se sujetan a palabras clave específicas o patrones lingüísticos que se correlacionan con la toxicidad en los datos de entrenamiento pero no capturan la sutileza del discurso de odio en diferentes comunidades en línea o contextos.

Este fenómeno sugiere que la crisis de "confiabilidad" en la IA no se limita a dominios físicos de alto riesgo, sino que es intrínseca a la forma en que los modelos de aprendizaje profundo (deep learning) procesan correlación frente a causalidad.

Future Directions for AI Reliability

La publicación de esta investigación marca un punto de inflexión para los estándares de seguridad en IA. El equipo del MIT ha liberado el código de OODSelect e identificado subconjuntos de datos específicos para ayudar a la comunidad a construir benchmarks más robustos.

Los investigadores recomiendan que las organizaciones que despliegan modelos de aprendizaje automático, particularmente en industrias reguladas, vayan más allá de las estadísticas agregadas. En su lugar, abogan por un proceso de evaluación riguroso que busque activamente las subpoblaciones en las que un modelo falla.

A medida que los sistemas de IA se integran cada vez más en infraestructuras críticas, la definición de un modelo "exitoso" está cambiando. Ya no es suficiente obtener la puntuación más alta en una tabla de clasificación (leaderboard); el nuevo estándar de excelencia exige que un modelo sea fiable para cada usuario, en cada entorno, independientemente del cambio de distribución.

Destacados