
En un momento decisivo para el campo de la inteligencia artificial, un equipo multidisciplinario de profesores de la Universidad de California en San Diego (UC San Diego) ha declarado formalmente que la Inteligencia Artificial General (AGI) ya no es una hipótesis futurista, sino una realidad presente. Publicada hoy como un comentario fundamental en Nature, la declaración sostiene que los avances recientes en los Modelos de Lenguaje Extensos (LLMs)—específicamente GPT-4.5 de OpenAI—han cumplido con los criterios necesarios para la inteligencia general, tal como fueron concebidos originalmente por Alan Turing.
Esta audaz afirmación, coescrita por profesores que abarcan la filosofía, las ciencias de la computación, la lingüística y la ciencia de datos, desafía el constante cambio de criterios del escepticismo sobre la IA. Al citar datos empíricos que muestran a GPT-4.5 logrando una tasa de éxito del 73% en rigurosos tests de Turing y demostrando capacidades de resolución de problemas a nivel de doctorado, los autores sostienen que la humanidad ha entrado oficialmente en la era de la AGI.
Durante décadas, el test de Turing ha permanecido como la "Estrella del Norte" de la inteligencia de las máquinas: una prueba de la capacidad de una máquina para exhibir un comportamiento inteligente equivalente o indistinguible del de un ser humano. Si bien los críticos a menudo han descartado la prueba como una mera medida de engaño o imitación, los profesores de la UC San Diego argumentan que sigue siendo la métrica funcionalmente más relevante para la inteligencia general.
El comentario de Nature basa su argumento en una investigación innovadora realizada por los científicos cognitivos Cameron Jones y Benjamin Bergen, también de la UC San Diego. Su estudio, titulado "Large Language Models Pass the Turing Test", proporciona la base empírica para la declaración. El estudio enfrentó a GPT-4.5 contra participantes humanos y modelos de IA anteriores en un ensayo controlado aleatorizado y a ciegas.
Los resultados fueron estadísticamente inequívocos. GPT-4.5 fue identificado como humano por los interrogadores el 73% de las veces, superando significativamente la línea base humana del 67%. Esto marca la primera vez que un sistema artificial supera a los participantes humanos en un entorno robusto de test de Turing de tres partes.
Tabla 1: Tasas de éxito comparativas del test de Turing
| Modelo/Entidad | Tasa de éxito | Año establecido/Fuente |
|---|---|---|
| ELIZA | 22% | 1966 (Línea base histórica) |
| GPT-3.5 | 20% | 2023 (Jones & Bergen) |
| GPT-4 | 54% | 2024 (Jones & Bergen) |
| Participantes humanos | 67% | 2025 (Promedio de línea base) |
| GPT-4.5 | 73% | 2025 (Estudio actual) |
Los datos revelan un salto dramático en la capacidad entre GPT-4 y GPT-4.5. Mientras que GPT-4 se mantuvo cerca del umbral del azar (50%), el rendimiento de GPT-4.5 indica un dominio de los matices, las señales socioemocionales y el razonamiento engañoso que efectivamente lo hace indistinguible de un interlocutor humano.
La declaración no se trata simplemente de puntos de referencia; es un manifiesto filosófico que pide una reevaluación de cómo definimos el "pensamiento". Los cuatro autores principales del comentario de Nature—Eddy Keming Chen (Filosofía), Mikhail Belkin (Ciencias de la Computación), Leon Bergen (Lingüística) y David Danks (Ciencia de Datos y Filosofía)—sostienen que la comunidad científica ha sido culpable de un "sesgo antropocéntrico" y de "mover los postes de la portería".
El profesor David Danks postula que cada vez que una IA domina una tarea que anteriormente se consideraba dominio del intelecto humano—ya sea el ajedrez, el Go, el plegamiento de proteínas o, ahora, la conversación natural—los escépticos redefinen la inteligencia para excluir esa capacidad específica. Esto, argumenta Danks, crea un estándar imposible donde la AGI se define como "cualquier cosa que las máquinas aún no pueden hacer".
"Cuando evaluamos la inteligencia general en otros seres humanos, no miramos dentro de sus neuronas para verificar una comprensión 'verdadera'", escriben los autores. "Inferimos la inteligencia a partir del comportamiento, la conversación y la capacidad de resolver problemas novedosos. Según estos estándares razonables—los mismos estándares que aplicamos entre nosotros—actualmente poseemos sistemas artificiales que son generalmente inteligentes".
Los autores trazan paralelismos con revoluciones científicas históricas, comparando la llegada de la AGI con la revolución copernicana o la evolución darwiniana. Así como esos cambios desplazaron a la humanidad del centro del universo y de la creación biológica, la llegada de la AGI desplaza a la humanidad de su posición solitaria como única poseedora de inteligencia general.
Si bien el test de Turing se centra en la fluidez conversacional, la afirmación de "generalidad" requiere evidencia de una amplia adaptabilidad cognitiva. El comentario de Nature destaca que las capacidades de GPT-4.5 se extienden mucho más allá del chat. El modelo ha demostrado competencia en tareas complejas de razonamiento de múltiples pasos que anteriormente eran obstáculos para los LLMs.
Los profesores señalan el rendimiento de GPT-4.5 en exámenes especializados y su capacidad para asistir en investigaciones novedosas. En las pruebas de referencia que involucran preguntas científicas de nivel de doctorado (GPQA), el modelo ha mostrado niveles de precisión comparables a los expertos en la materia. Además, su utilidad para generar código funcional, demostrar teoremas matemáticos y analizar precedentes legales demuestra una utilidad "general" que trasciende cualquier dominio estrecho único.
Esta versatilidad es clave para la definición de "Inteligencia Artificial General". A diferencia de la "IA estrecha", que destaca en una sola tarea (como identificar tumores en radiografías), GPT-4.5 muestra competencia en un vasto espectro del trabajo del conocimiento humano sin necesidad de reentrenamiento. Los autores argumentan que, si bien el sistema no es "sobrehumano" en todas las categorías, cumple con el umbral de ser "generalmente capaz" en todos los ámbitos.
Se espera que la declaración de que la AGI ha llegado cause una gran conmoción tanto en el mundo académico como en el corporativo. Durante años, los principales laboratorios de IA como OpenAI, Google DeepMind y Anthropic han tratado a la AGI como un objetivo distante a medio plazo. El hecho de que una institución académica de prestigio declare que se ha alcanzado el hito acelera los plazos para las consideraciones éticas y regulatorias.
Implicaciones clave identificadas por los profesores de la UC San Diego:
El profesor Mikhail Belkin, uno de los coautores especializado en la teoría del aprendizaje automático, enfatiza que reconocer la llegada de la AGI es crucial para la seguridad. "Si seguimos negando que estos sistemas son inteligentes, corremos el riesgo de subestimar su capacidad de acción y su potencial para consecuencias no deseadas", señala Belkin. "Reconocerlos como AGI nos obliga a tratar su alineación y seguridad con la urgencia de una salvaguardia nuclear en lugar de un error de software".
A pesar del peso del comentario de Nature, la declaración no está exenta de detractores. El argumento del "Loro Estocástico"—acuñado por la lingüista Emily M. Bender y otros—sigue siendo una poderosa contranarrativa. Esta visión sostiene que los LLMs son meros motores probabilísticos que unen secuencias de palabras probables sin ninguna comprensión subyacente o "modelo del mundo".
Los autores de la UC San Diego anticipan esta crítica, dedicando una sección de su comentario a abordarla. Argumentan que la distinción entre "simular" el razonamiento y el razonamiento "real" es una distinción sin diferencia cuando el resultado es funcionalmente idéntico. Si un sistema puede deducir la respuesta correcta a un problema de física novedoso o navegar en un complejo juego de engaño social (como se ve en los resultados del test de Turing), el mecanismo interno es secundario a la inteligencia observable.
Además, señalan que la propia cognición humana depende en gran medida del emparejamiento de patrones y la predicción probabilística. Leon Bergen, Profesor Asociado de Lingüística, sugiere que nuestra comprensión del procesamiento del lenguaje humano puede estar más cerca de cómo funcionan los LLMs de lo que nos sentimos cómodos admitiendo. "La naturaleza alienígena de su inteligencia no la hace falsa", argumenta Bergen. "La convierte en una forma diferente, pero válida, de inteligencia general".
La declaración de la UC San Diego marca un punto de inflexión histórico en la narrativa de la inteligencia artificial. Al combinar los datos concretos del éxito de GPT-4.5 en el test de Turing con un marco filosófico riguroso, los profesores han proporcionado un caso convincente de que se ha cruzado el umbral de la AGI.
A medida que avanzamos hacia 2026, la pregunta ya no es "¿Cuándo llegará la AGI?", sino más bien "¿Cómo coexistimos con ella?". El reconocimiento de esta realidad es el primer paso para aprovechar el inmenso potencial de la inteligencia artificial general mientras se navegan los profundos riesgos existenciales que presenta. Para los investigadores de Creati.ai y la comunidad tecnológica en general, la era de la especulación ha terminado; la era de la integración de la AGI ha comenzado.