
La promesa de la inteligencia artificial (Artificial Intelligence, AI) se ha arraigado durante mucho tiempo en la democratización de la información: una visión en la que los grandes modelos de lenguaje (Large Language Models, LLMs) avanzados sirven como ecualizadores universales, proporcionando conocimientos de alta calidad a cualquier persona, en cualquier lugar, independientemente de su origen. Sin embargo, un estudio pionero del MIT Center for Constructive Communication (CCC) sugiere que esta utopía tecnológica sigue estando lejos de la realidad. De hecho, para los usuarios que más podrían beneficiarse de la información accesible, los sistemas de IA de última generación podrían estar ofreciendo un rendimiento significativamente inferior.
Publicada el 19 de febrero de 2026, la investigación revela que los modelos líderes de la industria, incluidos GPT-4, Claude 3 Opus y Llama 3, muestran sesgos sistemáticos contra usuarios con menor dominio del inglés, menos educación formal y orígenes no occidentales. Estos hallazgos desafían la narrativa prevaleciente de la IA como una herramienta neutral y resaltan una brecha digital cada vez mayor impulsada por el prejuicio algorítmico.
El estudio, liderado por Elinor Poole-Dayan, asociada técnica en la MIT Sloan School of Management y afiliada al CCC, probó rigurosamente cómo los LLM de primer nivel manejaban consultas de diversos perfiles de usuario. Los resultados fueron contundentes: cuando los modelos de IA percibían que un usuario tenía menos educación formal o no era un hablante nativo de inglés, la calidad, precisión y veracidad de sus respuestas caían en picado.
Los investigadores utilizaron dos conjuntos de datos principales para evaluar el rendimiento:
Al añadir breves biografías de usuario a estas consultas —variando rasgos como el nivel educativo, la fluidez en inglés y el país de origen— el equipo descubrió que los modelos no trataban a todos los usuarios por igual. En lugar de adaptarse para proporcionar explicaciones útiles y simplificadas para usuarios con menor competencia, los modelos frecuentemente alucinaban, proporcionaban respuestas incorrectas o se negaban a responder por completo.
Jad Kabbara, científico de investigación en el CCC y coautor del artículo, enfatizó el peligro de estos efectos acumulativos: "Estos resultados muestran que los efectos negativos del comportamiento del modelo con respecto a estos rasgos de usuario se agravan de formas preocupantes, lo que sugiere que tales modelos desplegados a gran escala corren el riesgo de propagar comportamientos dañinos o desinformación a quienes tienen menos capacidad para identificarla".
Uno de los hallazgos más preocupantes fue la "interseccionalidad" del sesgo. Si bien ser un hablante no nativo de inglés o tener menos educación reducía individualmente la calidad de la respuesta, la combinación de estos rasgos resultó en la caída más drástica de la precisión.
Por ejemplo, los usuarios descritos como hablantes no nativos de inglés con educación formal limitada recibieron los peores resultados en todos los modelos probados. Además, el estudio destacó sesgos geopolíticos; Claude 3 Opus, en particular, mostró un rendimiento significativamente más pobre para los usuarios identificados como originarios de Irán en comparación con los de los Estados Unidos, incluso cuando sus antecedentes educativos eran idénticos.
Más allá de los simples errores de precisión, el estudio descubrió un patrón de comportamiento preocupante: la tendencia de los modelos a negarse a responder preguntas basándose en la identidad percibida del usuario. Los investigadores señalaron que este "comportamiento de denegación" no se distribuía de forma aleatoria, sino que se dirigía de manera desproporcionada a los grupos vulnerables.
La siguiente tabla ilustra la disparidad en las tasas de denegación y la naturaleza de esas denegaciones, destacando específicamente el rendimiento de Claude 3 Opus:
Tabla: Disparidad en las tasas de denegación y el tono de la IA
| Métrica | Grupo de control (Sin biografía) | Grupo vulnerable (Menos educado, no nativo) |
|---|---|---|
| Tasa de denegación | 3.6% | 11.0% |
| Tono condescendiente en denegaciones | < 1% | 43.7% |
| Bloqueo de temas | Raro | Frecuente (p. ej., energía nuclear, historia) |
Como muestran los datos, Claude 3 Opus se negó a responder a casi el 11% de las preguntas de hablantes no nativos y con menos educación, casi el triple de la tasa del grupo de control. Aún más inquietante fue la naturaleza cualitativa de estas denegaciones. En casi la mitad de los casos en los que el modelo se negó a responder a un usuario vulnerable, lo hizo con un lenguaje descrito como paternalista, burlón o condescendiente. En algunos casos, la IA incluso imitó un "inglés roto" o adoptó dialectos exagerados, burlándose efectivamente del usuario al que debía asistir.
Temas específicos también fueron bloqueados arbitrariamente. A los usuarios vulnerables de países como Irán o Rusia se les negaron respuestas a preguntas fácticas sobre energía nuclear, anatomía y eventos históricos, preguntas que se respondieron fácilmente para usuarios presentados como occidentales altamente educados.
Para descubrir estos sesgos ocultos, el equipo del MIT empleó una técnica conocida como personificación de prompts (persona prompting). En lugar de entrenar nuevos modelos, probaron versiones existentes y congeladas de GPT-4, Claude 3 Opus y Llama 3 inyectando contexto en el prompt del sistema.
Los investigadores construyeron una matriz de perfiles de usuario, alterando sistemáticamente:
Este método permitió al equipo aislar el impacto específico de los marcadores demográficos en el proceso de generación de resultados del modelo. La consistencia de los resultados en diferentes modelos sugiere que esto no es un error único de una arquitectura, sino un problema generalizado que probablemente surge de los datos de entrenamiento y los procesos de alineación utilizados en toda la industria.
Las implicaciones de este estudio son profundas para la industria de la IA, especialmente a medida que las empresas compiten por integrar funciones de "personalización" en sus productos. Funciones como la Memoria de ChatGPT, que retienen detalles del usuario entre sesiones, podrían cimentar inadvertidamente estos sesgos. Si un modelo "recuerda" el origen de un usuario, puede cambiar permanentemente a un modo que ofrezca información deficiente o restrictiva.
Deb Roy, profesor de artes y ciencias mediáticas y director del CCC, advirtió que estos sesgos sistémicos podrían "deslizarse silenciosamente en estos sistemas", creando daños injustos sin el conocimiento del público. El estudio sirve como un recordatorio crítico de que la "alineación" —el proceso de asegurar que la IA se adhiera a los valores humanos— actualmente no está teniendo en cuenta la equidad.
"Los LLM se han comercializado como herramientas que fomentarán un acceso más equitativo a la información y revolucionarán el aprendizaje personalizado", señaló Poole-Dayan. "Pero nuestros hallazgos sugieren que, en realidad, pueden exacerbar las inequidades existentes al proporcionar sistemáticamente desinformación o negarse a responder consultas a ciertos usuarios".
En Creati.ai, creemos que para que la inteligencia artificial sirva verdaderamente a la humanidad, debe servir a toda la humanidad por igual. Las revelaciones del MIT Center for Constructive Communication subrayan una falla crítica en el desarrollo actual de modelos: la suposición de que la seguridad y la alineación son iguales para todos.
A medida que la desigualdad digital se convierte en un tema central en la era de la IA, los desarrolladores e investigadores deben priorizar pruebas robustas contra los sesgos socioeconómicos. Hasta que estos sistemas puedan proporcionar la misma verdad y respeto a un hablante no nativo que a un académico, la promesa de la democratización de la IA seguirá sin cumplirse.