
Um estudo inovador divulgado ontem por pesquisadores do Massachusetts Institute of Technology (MIT) contestou um princípio fundamental da avaliação em aprendizado de máquina, revelando que modelos amplamente considerados "de ponta" (state-of-the-art) com base em métricas agregadas podem falhar de forma catastrófica quando implantados em novos ambientes.
A pesquisa, apresentada na conferência Neural Information Processing Systems (NeurIPS 2025) e publicada no MIT News em 20 de janeiro de 2026, expõe uma vulnerabilidade crítica na forma como os sistemas de IA (AI) são atualmente avaliados. A equipe, liderada pela Professora Associada Marzyeh Ghassemi e pelo pós-doutor Olawale Salaudeen, demonstrou que modelos de melhor desempenho frequentemente dependem de correlações espúrias (spurious correlations) — atalhos ocultos nos dados — que os tornam pouco confiáveis e potencialmente perigosos em aplicações do mundo real, como diagnóstico médico e detecção de discurso de ódio.
Por anos, a comunidade de IA operou sob o pressuposto da "acurácia na linha" (accuracy-on-the-line). Esse princípio sugere que, se um conjunto de modelos for classificado do melhor ao pior com base em seu desempenho em um conjunto de treinamento (dentro da distribuição, in-distribution), essa classificação será preservada quando os modelos forem aplicados a um novo conjunto de dados não visto (fora da distribuição, out-of-distribution).
As descobertas da equipe do MIT efetivamente desmontaram esse pressuposto. A análise mostra que alta acurácia média frequentemente mascara falhas graves dentro de subpopulações específicas. Em alguns dos casos mais alarmantes, o modelo identificado como o "melhor" nos dados de treinamento originais revelou-se o modelo de pior desempenho em 6 a 75 por cento dos novos dados.
"Demonstramos que mesmo quando você treina modelos com grandes quantidades de dados e escolhe o melhor modelo pela média, em um novo cenário esse 'melhor modelo' pode ser o pior modelo", disse Marzyeh Ghassemi, investigadora principal no Laboratory for Information and Decision Systems (LIDS).
As implicações dessas descobertas são mais agudas na saúde, onde a confiabilidade algorítmica é uma questão de vida ou morte. Os pesquisadores examinaram modelos treinados para diagnosticar patologias a partir de radiografias de tórax — uma aplicação padrão de visão computacional na medicina.
Embora os modelos parecessem robustos na média, uma análise detalhada revelou que eles se apoiavam em correlações espúrias (spurious correlations) em vez de em características anatômicas genuínas. Por exemplo, um modelo pode aprender a associar marcações radiográficas específicas de um hospital à prevalência de uma doença, em vez de identificar a própria patologia. Quando aplicado a radiografias de outro hospital sem essas marcações específicas, a capacidade preditiva do modelo colapsou.
Principais Descobertas em Imagens Médicas:
Para enfrentar essa falha sistêmica, a equipe de pesquisa desenvolveu uma abordagem algorítmica nova chamada OODSelect (Out-of-Distribution Select). Essa ferramenta foi projetada para testar modelos sob estresse, identificando especificamente os subconjuntos de dados onde o pressuposto da "acurácia na linha" (accuracy-on-the-line) se quebra.
O autor principal Olawale Salaudeen enfatizou que o objetivo é forçar os modelos a aprender relações causais em vez de atalhos estatísticos convenientes. "Queremos que os modelos aprendam a olhar para as características anatômicas do paciente e então tomar uma decisão com base nisso", afirmou Salaudeen. "Mas, na verdade, qualquer coisa que esteja nos dados e que se correlacione com uma decisão pode ser usada pelo modelo."
OODSelect funciona separando os "exemplos mais mal calculados", permitindo que os desenvolvedores distingam entre casos-limite difíceis de classificar e falhas genuínas causadas por correlações espúrias.
Comparação de Metodologias de Avaliação:
| Metric Type | Traditional Aggregated Evaluation | OODSelect Evaluation |
|---|---|---|
| Focus | Average accuracy across the entire dataset | Performance on specific, vulnerable subpopulations |
| Assumption | Ranking preservation (Accuracy-on-the-line) | Ranking disruption (Best can be worst) |
| Risk Detection | Low (Masks failures in minority groups) | High (Highlights spurious correlations) |
| Outcome | Optimized for general benchmarks | Optimized for robustness and reliability |
| Application | Initial model selection | Pre-deployment safety auditing |
Embora o estudo tenha referenciado fortemente imagens médicas, os pesquisadores validaram suas descobertas em outros domínios críticos, incluindo histopatologia do câncer e detecção de discurso de ódio. Em tarefas de classificação de texto, modelos frequentemente se apegam a palavras-chave específicas ou padrões linguísticos que se correlacionam com toxicidade nos dados de treinamento, mas não capturam a nuance do discurso de ódio em diferentes comunidades ou contextos online.
Esse fenômeno sugere que a crise de "confiabilidade" na IA não se limita a domínios físicos de alto risco, mas é intrínseca à forma como modelos de deep learning distinguem correlação de causalidade.
A divulgação desta pesquisa marca um ponto de inflexão para os padrões de segurança em IA. A equipe do MIT liberou o código do OODSelect e identificou subconjuntos de dados específicos para ajudar a comunidade a construir benchmarks mais robustos.
Os pesquisadores recomendam que organizações que implantam modelos de aprendizado de máquina — particularmente em indústrias regulamentadas — ultrapassem estatísticas agregadas. Em vez disso, defendem um processo de avaliação rigoroso que busque ativamente as subpopulações nas quais um modelo falha.
À medida que os sistemas de IA se integram cada vez mais em infraestrutura crítica, a definição de um modelo "bem-sucedido" está mudando. Já não basta obter a maior pontuação em um placar; o novo padrão de excelência exige que um modelo seja confiável para todo usuário, em qualquer ambiente, independentemente da mudança de distribuição.