
En la Cumbre sobre el Impacto de la IA en la India (India AI Impact Summit) celebrada en Nueva Delhi esta semana, el CEO de Google DeepMind, Demis Hassabis, pronunció un discurso de apertura definitorio que equilibró el optimismo tecnológico con una urgente cautela geopolítica. Dirigiéndose a una asamblea global de legisladores, líderes de la industria e investigadores, Hassabis ofreció uno de sus plazos más concretos hasta la fecha para la llegada de la inteligencia artificial general (Artificial General Intelligence, AGI), prediciendo su surgimiento en los próximos "5 a 10 años". Sin embargo, este pronóstico fue acompañado de una severa advertencia: la ventana para establecer marcos de seguridad internacionales sólidos se está cerrando a medida que los sistemas de IA pasan de ser herramientas pasivas a agentes autónomos.
La cumbre, que se lleva a cabo en un período de rápida aceleración de las capacidades de la IA generativa (Generative AI), sirvió de telón de fondo para que Hassabis delimitara el "momento umbral" al que se enfrenta ahora la industria. Mientras celebraba el potencial de una nueva "era dorada del descubrimiento científico", enfatizó que la naturaleza de doble uso de la IA avanzada —capaz tanto de un beneficio inmenso como de un daño significativo— requiere un nivel de cooperación global que actualmente va a la zaga del progreso tecnológico.
El discurso de Hassabis proporcionó una evaluación excepcional y franca de las limitaciones de los modelos de vanguardia actuales. A pesar de la expectación que rodea a los recientes avances de la IA generativa, caracterizó los sistemas actuales como "inteligencias irregulares" (jagged intelligences). Este término describe modelos que demuestran una brillantez sobrehumana en dominios específicos —como la programación o la escritura creativa— mientras que simultáneamente fallan en tareas de razonamiento elementales que un niño humano podría resolver con facilidad.
"Estamos empezando a ver lo que estos sistemas pueden hacer, pero siguen siendo frágiles", señaló Hassabis durante su sesión. Indicó que, si bien un modelo podría ganar una medalla de oro en la Olimpiada Matemática Internacional, puede tropezar con la aritmética simple si la pregunta se formula de manera poco convencional. Esta inconsistencia, argumentó, es la principal barrera que separa a la IA estrecha actual de la verdadera AGI.
Para ilustrar el salto necesario para alcanzar la AGI, Hassabis propuso un ambicioso experimento mental relacionado con la innovación científica. Sugirió que una verdadera AGI debería ser capaz de someterse a un entrenamiento con una fecha de corte de conocimiento de 1911 y derivar de forma independiente la teoría de la relatividad general, replicando el avance de Albert Einstein de 1915. "Es mucho más difícil dar con la pregunta correcta y la hipótesis adecuada que resolver la conjetura", explicó. Los sistemas actuales, que sobresalen en la interpolación dentro de los datos existentes, aún carecen de los "modelos del mundo" (world models) y de las capacidades de planificación a largo plazo necesarias para tales saltos conceptuales originales.
Sin embargo, el cofundador de DeepMind mantiene la confianza en que estas brechas se están cerrando rápidamente. Citó el surgimiento de sistemas "agénticos" (agentic) —IA que puede tomar acciones autónomas para lograr objetivos de alto nivel— como la próxima fase principal. Se espera que esta transición de las interacciones tipo chatbot a flujos de trabajo basados en agentes se acelere durante el próximo año, impulsando a la industria hacia el objetivo de la AGI en 5-10 años.
A medida que el plazo para la AGI se comprime, el potencial de mal uso crece. Hassabis dedicó una parte significativa de su intervención a la naturaleza de "doble uso" (dual-use) de los sistemas de IA de frontera. Las mismas capacidades que permiten a la IA acelerar el descubrimiento de fármacos u optimizar las redes energéticas pueden ser reutilizadas por "malos actores" —que van desde individuos aislados hasta estados-nación hostiles— para infligir daño.
Destacó dos áreas específicas de preocupación inmediata: la bioseguridad y el ciberriesgo.
En el ámbito de la bioseguridad, la preocupación es que la IA pueda reducir la barrera de entrada para la creación de agentes biológicos dañinos. Si bien herramientas de IA como AlphaFold han revolucionado la biología al predecir las estructuras de las proteínas, tecnologías similares podrían teóricamente utilizarse para diseñar toxinas o patógenos si no se establecen las salvaguardas adecuadas.
La ciberseguridad presenta una volatilidad aún más inmediata. "Los sistemas actuales se están volviendo bastante buenos en lo cibernético", advirtió Hassabis, subrayando que la industria debe garantizar que "las defensas sean más fuertes que las ofensivas". A medida que los agentes de IA se vuelven capaces de escribir y ejecutar código complejo, el riesgo de ciberataques automatizados que escalen más allá de la capacidad de los equipos de defensa humanos se convierte en una realidad tangible. Esto requiere un enfoque proactivo donde la IA se utilice para parchear vulnerabilidades más rápido de lo que puede usarse para explotarlas.
La siguiente tabla resume las distinciones críticas trazadas por Hassabis entre los modelos de IA desplegados hoy y los sistemas de AGI previstos para la próxima década.
| Métrica | Inteligencia "irregular" actual | Futura Inteligencia Artificial General (AGI) |
|---|---|---|
| Consistencia del rendimiento | Alta varianza; brillante en algunas tareas, falla en lo básico | Competencia uniformemente alta en todos los dominios cognitivos |
| Metodología de aprendizaje | Conjuntos de entrenamiento estáticos; "congelados" tras el despliegue | Aprendizaje en línea continuo; actualizaciones a partir de la experiencia en tiempo real |
| Capacidad de razonamiento | Reconocimiento de patrones y predicción estadística | Razonamiento causal, generación de hipótesis y modelado del mundo |
| Nivel de autonomía | Herramienta pasiva que requiere indicaciones humanas | Agéntica; capaz de planificación a largo plazo y acción independiente |
| Factor de riesgo principal | Alucinación y sesgo | Desalineación, pérdida de control y proliferación de doble uso |
La naturaleza sin fronteras de la inteligencia digital la convierte en un desafío regulatorio único. Hassabis argumentó que ningún país por sí solo puede contener eficazmente los riesgos de la IA, ya que los datos y los modelos fluyen instantáneamente a través de las jurisdicciones. Pidió un marco internacional similar a los establecidos para la energía nuclear o el cambio climático, aunque reconoció la dificultad de lograrlo en el actual clima geopolítico fragmentado.
"Se está convirtiendo en un punto de encuentro increíblemente importante para el diálogo internacional", dijo Hassabis sobre la cumbre, elogiando el papel de la India en la facilitación de estas conversaciones críticas. Posicionó explícitamente a la India como una futura "potencia para la IA", citando la profundidad del talento de ingeniería del país y su rápida adopción de la infraestructura digital.
Sin embargo, el camino hacia la cooperación global está plagado de tensiones. Actualmente, diferentes naciones están priorizando distintos aspectos de la política de IA: algunas se centran en el dominio de la innovación y otras en el cumplimiento estricto de la seguridad. El mensaje de Hassabis fue claro: sin un conjunto mínimo de estándares globales, particularmente en lo que respecta al despliegue de agentes autónomos y salvaguardas de bioseguridad, el mundo corre el riesgo de una "carrera hacia el fondo" en materia de seguridad.
A pesar del fuerte enfoque en los riesgos, el núcleo del mensaje de Hassabis permaneció arraigado en el potencial transformador de la IA para la ciencia. Describió la próxima década como un "nuevo Renacimiento", donde las herramientas de IA desvelarán misterios en la física, la biología y la ciencia de materiales que han desconcertado a los investigadores durante décadas.
Este optimismo está respaldado por la propia trayectoria de DeepMind. Desde dominar el juego de Go hasta resolver el problema del plegamiento de proteínas, la empresa ha demostrado sistemáticamente que la IA puede resolver problemas complejos y no definidos. La transición a la AGI, según Hassabis, no se trata solo de construir chatbots más inteligentes, sino de crear la herramienta definitiva para la expansión del conocimiento. "Siempre he creído que la IA sería una de las tecnologías más importantes y beneficiosas jamás inventadas", reflexionó, señalando que la búsqueda de toda su carrera ha sido impulsada por el deseo de acelerar el descubrimiento científico.
Desde la perspectiva de Creati.ai, los comentarios de Hassabis en la Cumbre sobre el Impacto de la IA en la India señalan un cambio crítico en la narrativa de la industria. Nos estamos alejando del asombro inicial por el texto y las imágenes generativas para adentrarnos en el trabajo serio y complejo de construir agentes autónomos y fiables.
Para las empresas y los desarrolladores, la naturaleza "irregular" de los modelos actuales es un punto de fricción conocido. La promesa de la AGI implica un futuro donde la fiabilidad de la IA ya no sea una cuestión de azar, sino una garantía. Sin embargo, el plazo de 5 a 10 años sugiere que las empresas deben permanecer ágiles, invirtiendo en las herramientas actuales mientras preparan su infraestructura para un salto radical en la capacidad.
El énfasis en la seguridad también indica que la próxima ola de productos de IA probablemente se enfrentará a un escrutinio más estricto con respecto a su potencial de "doble uso". Anticipamos un aumento en la demanda de plataformas de seguridad de IA: herramientas diseñadas específicamente para monitorear, auditar y proteger con cortafuegos los sistemas de IA agénticos. A medida que la industria asimila la advertencia de Hassabis, el enfoque probablemente se desplazará hacia un desarrollo de IA "centrado en la defensa", asegurando que los sistemas que construimos hoy no se conviertan en las vulnerabilidades del mañana.