
Davos, Suiza — Las cumbres nevadas de Davos han servido durante mucho tiempo de escenario para las discusiones económicas más trascendentes del mundo, pero en el Foro Económico Mundial 2026, la temperatura dentro del Congress Centre fue significativamente más alta que el aire helado del exterior. En un momento definitorio para la industria de la inteligencia artificial, tres de sus figuras más prominentes —Demis Hassabis de DeepMind, Dario Amodei de Anthropic y Yann LeCun de Meta— presentaron hojas de ruta radicalmente divergentes para el futuro de la inteligencia artificial general (Artificial General Intelligence, AGI), revelando una fractura ideológica y técnica cada vez más profunda en los niveles más altos de la investigación en IA.
La sesión, coloquialmente apodada "El día después de la AGI" por los asistentes, fue más allá de las platitudes teóricas de años anteriores. En su lugar, dejó al descubierto un conflicto marcado entre quienes creen que la AGI es una inevitabilidad inminente impulsada por leyes de escala y quienes sostienen que la arquitectura dominante actual —Modelos de Lenguaje a Gran Escala (Large Language Models, LLMs)— es un callejón sin salida fundamental en el camino hacia la verdadera inteligencia.
Dario Amodei, CEO de Anthropic, abrió el debate con la línea temporal más agresiva, declarando de facto que la era de la ingeniería de software impulsada por humanos está llegando a su fin. Amodei, cuya compañía ha estado a la vanguardia de la seguridad y la direccionabilidad de la IA, sorprendió a muchos al sugerir que el "bucle cerrado" de la auto-evolución de la IA ya se ha activado.
"Ya no operamos en un marco teórico donde los humanos iteran manualmente sobre la arquitectura del modelo", dijo Amodei ante el auditorio lleno. "Hemos entrado en una fase en la que los modelos escriben su propio código. Tengo ingenieros en Anthropic que, francamente, afirman que ya no escriben código; supervisan al modelo mientras escribe el código. Una vez que cierras ese bucle —donde la IA construye IA mejor— la línea temporal se comprime drásticamente."
Amodei predijo que la AGI —definida por Anthropic como un sistema capaz de superar a un laureado con el Nobel en la mayoría de tareas relevantes— podría llegar tan pronto como en 2027 o 2028. Su argumento pivota sobre la observación de que, aunque persisten las limitaciones físicas (como la fabricación de chips y la infraestructura energética), el cuello de botella intelectual del diseño de algoritmos se está disolviendo.
Las implicaciones socioeconómicas del pronóstico de Amodei fueron sobrias. Reforzó su advertencia de que hasta el 50% de las tareas de oficina de nivel inicial, particularmente en análisis de datos y programación, podrían ser desplazadas en los próximos 12 a 24 meses. "El desplazamiento de roles junior no es un riesgo futuro; es una realidad operativa que estamos viendo hoy en Silicon Valley", señaló, instando a los responsables políticos a prepararse para un shock en el mercado laboral que se mueve más rápido que los ciclos legislativos.
Sir Demis Hassabis, CEO de Google DeepMind, ofreció una contra-narrativa que, si bien es optimista, introdujo matices significativos respecto a la definición de inteligencia. Aunque reconoció el rápido progreso en el "reino digital" del código y las matemáticas, Hassabis argumentó que el salto al "reino físico" del descubrimiento científico sigue siendo un obstáculo formidable que los LLMs por sí solos no pueden superar.
"Hay una diferencia profunda entre resolver un problema matemático donde las reglas son axiomáticas e inventar una nueva hipótesis en biología donde las reglas son desordenadas, incompletas y físicas", defendió Hassabis. Mantuvo una línea temporal más conservadora, estimando un 50% de probabilidad de alcanzar la AGI en un plazo de cinco a diez años —colocando la llegada más cerca de 2030 que del 2027 de Amodei.
Hassabis enfatizó que la estrategia de DeepMind se centra en la IA de "Ciencia Primero" (Science First). Señaló avances recientes en los que los sucesores de AlphaFold han empezado a modelar no solo estructuras proteicas sino interacciones biológicas complejas que conducen al descubrimiento de fármacos. Sin embargo, advirtió contra confundir la competencia lingüística con la creatividad científica. "Tener la idea de la pregunta en primer lugar —ese es la chispa de la inteligencia general. Estamos viendo máquinas que pueden ejecutar respuestas con brillantez, pero aún no hemos visto una máquina que pueda formular un paradigma científico novedoso."
Para Hassabis, el camino hacia la AGI requiere integrar las capacidades de razonamiento de los LLMs con sistemas basados en simulación y búsqueda —un enfoque híbrido que vaya más allá de la predicción del siguiente token (next-token prediction) hacia la planificación real y la resolución de problemas en el espacio físico.
Si Amodei representaba el acelerador y Hassabis el volante, Yann LeCun, científico jefe de IA de Meta, se posicionó como el freno del tren de la exageración. LeCun pronunció una crítica contundente a la dependencia de la industria en los Modelos de Lenguaje a Gran Escala, reiterando su polémica postura de que "los LLMs no conducirán a la AGI".
El argumento de LeCun se centra en la eficiencia de datos y la modelización del mundo. Presentó un análisis comparativo del aprendizaje humano frente al entrenamiento de máquinas que desmontó la idea de que más datos de texto equivalen a más inteligencia. "Un niño de cuatro años ha visto quizás 16.000 horas de datos visuales y entiende la física, la causalidad y la permanencia de los objetos mejor que nuestros modelos más grandes", declaró LeCun. "Contrástalo con un LLM que ha sido alimentado con el equivalente de 400.000 años de material de lectura humana y que aún así alucina hechos básicos porque no tiene anclaje en la realidad."
LeCun defendió su "Arquitectura Predictiva de Embedding Conjunta (Joint Embedding Predictive Architecture, JEPA)" como la alternativa necesaria. Argumentó que, para que la IA alcance niveles humanos, debe alejarse de la generación de texto autorregresiva (auto-regressive) y moverse hacia Modelos del Mundo (World Models) que puedan predecir el estado del mundo en representaciones abstractas.
"El texto es una proyección de baja capacidad de un mundo de alta capacidad", afirmó LeCun. "Al entrenar modelos principalmente con texto, estamos intentando reconstruir el elefante mirando su sombra. No puedes construir una máquina que planifique o razone en el mundo físico únicamente prediciendo el siguiente token en una oración. Es una imposibilidad matemática."
Para comprender la magnitud de la divergencia en Davos, es esencial observar las predicciones específicas y las apuestas técnicas que están haciendo estos tres líderes. La siguiente tabla resume sus posturas conflictivas.
Tabla: La división del liderazgo de IA en Davos 2026
| Leader | Organization | Projected AGI Timeline | Primary Technical Bottleneck | Key Quote/Stance |
|---|---|---|---|---|
| Dario Amodei | Anthropic (CEO) | 2027-2028 (1-2 Years) | Computing power and energy infrastructure; the software bottleneck is already breaking. | "The 'closed loop' of AI self-evolution has begun. Engineers don't write code; they manage models that do." |
| Demis Hassabis | Google DeepMind (CEO) | 2030-2032 (5-10 Years) | Transferring reasoning from digital axioms (math/code) to messy physical sciences. | "Digital realms are crumbling fast, but scientific creativity and hypothesis generation remain elusive." |
| Yann LeCun | Meta (Chief AI Scientist) | >2035 (Skeptical of current path) | The fundamental architecture of LLMs; lack of World Models and grounding. | "LLMs are an off-ramp. A child learns physics from vision; models cannot learn it from text alone." |
El debate en Davos se extiende mucho más allá del desacuerdo académico; dicta cómo se están desplegando actualmente billones de dólares de capital. Si Amodei tiene razón, la economía global está a apenas meses de una "singularidad de software" donde el costo de la inteligencia cae a casi cero, lo que exigiría discusiones inmediatas sobre la Renta Básica Universal (Universal Basic Income, UBI) y una reestructuración corporativa radical. El enfoque de Anthropic en la adopción empresarial sugiere que están apostando todo por esta capacidad disruptiva inmediata.
Por el contrario, si LeCun está en lo cierto, la burbuja actual de la IA —alimentada por la suposición de que escalar parámetros equivale a escalar inteligencia— corre el riesgo de estallar. Las empresas que invierten miles de millones en clústeres de GPU para el entrenamiento de LLMs podrían encontrar rendimientos decrecientes, lo que forzaría un giro hacia las arquitecturas radicalmente diferentes que explora Meta. Esto justificaría el enfoque más fragmentado y experimental de la comunidad de código abierto frente al escalado monolítico de modelos de OpenAI y Anthropic.
Hassabis ofrece un camino intermedio que quizás resulte más aceptable para la élite de Davos: una evolución constante y de alto riesgo en la que la IA desbloquea avances hacia la post-escasez (post-scarcity) en energía (fusión) y biología (longevidad) antes de reemplazar por completo la cognición humana. Su visión se alinea con la profunda integración de Google de la IA en la infraestructura, sugiriendo un futuro en el que la IA sea una herramienta para la abundancia científica más que solo un reemplazo del trabajo de oficina.
Mientras los delegados abandonaban el Congress Centre, el consenso que una vez unió a la comunidad de IA —que "la escala es todo lo que necesitas"— parecía visiblemente fracturado. El debate de Davos 2026 subrayó que, si bien el destino (la AGI) sigue siendo compartido, el vehículo y el mapa están ferozmente en disputa.
Para la audiencia de Creati.ai, la conclusión es clara: los próximos 12 meses serán el campo de pruebas. Si los modelos de Anthropic comienzan a escribir software superior de forma autónoma, la línea temporal de Amodei quedará vindicada. Si el progreso se estanca y las alucinaciones persisten, el llamado de LeCun a una nueva arquitectura se hará más fuerte. Ya no estamos esperando a que se escriba el futuro de la IA; lo estamos viendo debatirse en tiempo real, con el destino de la economía global en juego.