
En un momento definitorio en la Cumbre AI Impact (AI Impact Summit) 2026 en Nueva Delhi, el CEO de OpenAI, Sam Altman, ofreció una predicción sorprendente que ha generado repercusiones en toda la comunidad tecnológica global. Dirigiéndose a una audiencia de legisladores, líderes de la industria e investigadores, Altman sugirió que las primeras formas de superinteligencia (superintelligence) podrían surgir en los próximos años, señalando específicamente 2028 como un hito potencial en el que la inteligencia computacional agregada del mundo podría superar la capacidad humana.
La cumbre, celebrada en el Bharat Mandapam, se ha convertido en una plataforma fundamental para el discurso global sobre la IA, marcando la primera vez que una reunión de gobernanza de la IA de tan alto nivel se organiza en el Sur Global (Global South). Los comentarios de Altman subrayan una rápida aceleración en el desarrollo de la IA que está superando incluso los pronósticos históricos más agresivos.
Una de las métricas más profundas que introdujo Altman fue la geografía cambiante de la inteligencia. "Para finales de 2028, una mayor parte de la capacidad intelectual del mundo podría residir dentro de los centros de datos (data centers) que fuera de ellos", afirmó Altman. Esta visualización enmarca el futuro inminente no solo como una actualización tecnológica, sino como un cambio fundamental en la ubicación del poder de procesamiento cognitivo del planeta.
Enfatizó que esta transición está impulsada por el escalado exponencial de la infraestructura de cómputo. La progresión desde sistemas que luchaban con las matemáticas de secundaria hasta aquellos capaces de derivar resultados novedosos en física teórica ha ocurrido en menos de una década. Altman calificó esto como un "desafío generacional", comparando la rápida construcción de la infraestructura de IA con el andamiaje de las revoluciones industriales anteriores, pero con una trayectoria vertical mucho más pronunciada.
Si bien la cumbre mostró un amplio consenso sobre el poder transformador de la IA, hubo diferencias matizadas en los cronogramas y las evaluaciones de riesgo proporcionadas por figuras destacadas. El CEO de Google DeepMind, Demis Hassabis, quien también intervino en la cumbre, ofreció un cronograma ligeramente más conservador pero igualmente urgente.
Comparación de predicciones clave en la Cumbre AI Impact 2026
| Líder | Cronograma de predicción | Área de enfoque clave |
|---|---|---|
| Sam Altman (OpenAI) | Superinteligencia para 2028 | Capacidad de los centros de datos superando la inteligencia humana |
| Demis Hassabis (DeepMind) | IA General (AGI) en un plazo de 5 a 8 años | Descubrimiento científico y "momentos umbral" |
| Consenso | Antes de 2030 | Necesidad urgente de salvaguardias de seguridad y gobernanza |
Hassabis advirtió que, aunque estamos en un "momento umbral", los sistemas actuales todavía carecen de la consistencia y las capacidades de planificación a largo plazo de la cognición humana. Sin embargo, advirtió que la llegada de la Inteligencia Artificial General (AGI — Artificial General Intelligence) está "en el horizonte", probablemente para finales de la década.
El optimismo en torno a los avances científicos —como el potencial de la IA para curar enfermedades o resolver la física de la fusión— se vio equilibrado por crudas advertencias con respecto a la seguridad. Demis Hassabis fue particularmente enfático sobre la naturaleza de doble uso de los sistemas avanzados de IA.
Hassabis destacó dos áreas de preocupación inmediata que requieren atención urgente:
"Necesitamos preocuparnos muy pronto por cosas como el riesgo biológico y cibernético en la IA", instó Hassabis, señalando que los "actores malintencionados" (bad actors) —que van desde individuos aislados hasta estados-nación— podrían reutilizar estas poderosas herramientas para fines perjudiciales. Abogó por un enfoque de "método científico" riguroso para la seguridad de la IA, donde las salvaguardias se construyan y prueben con la misma precisión que los propios modelos.
En su discurso, Altman esbozó un marco de tres partes diseñado para guiar el desarrollo responsable de la superinteligencia. Argumentó que sin estos pilares, los beneficios de la IA no se distribuirían de manera equitativa.
Un tema recurrente a lo largo de la cumbre fue la posición única de la India para influir en la trayectoria de la IA global. Con una de cada 100 millones de personas en la India ya usando ChatGPT semanalmente, y un tercio de ellos siendo estudiantes, el país se está convirtiendo rápidamente en un campo de pruebas para la adopción masiva de la IA.
Factores clave que posicionan a la India como una potencia de IA:
"La India está bien posicionada para liderar en IA; no solo para construirla, sino para darle forma y decidir cómo será nuestro futuro", remarcó Altman. Este sentimiento fue compartido por el Primer Ministro Narendra Modi, quien presentó una visión de "desarrollar en la India, desarrollar para el mundo", enfatizando una IA ética e inclusiva.
Al abordar las ansiedades económicas que a menudo acompañan a los avances de la IA, Altman fue sincero sobre las disrupciones que se avecinan. Señaló que en muchas tareas específicas, "será muy difícil superar el trabajo de una GPU", señalando un cambio fundamental en el mercado laboral. Sin embargo, mantuvo una perspectiva optimista sobre la adaptabilidad humana, sugiriendo que la tecnología siempre desplaza empleos mientras crea simultáneamente "cosas nuevas y mejores que hacer".
El consenso de la cumbre es claro: la era de las discusiones teóricas sobre la superinteligencia está terminando. La tecnología está transitando hacia una realidad tangible y de alto riesgo. Con líderes como Altman y Hassabis prediciendo avances fundamentales antes de que termine la década, el enfoque se ha desplazado por completo hacia la preparación, la gobernanza y la garantía de que la inteligencia que reside en los centros de datos sirva a la humanidad que está fuera de ellos.