AI News

Expertos globales advierten sobre una "profunda incertidumbre" en la trayectoria de la IA antes de la cumbre en India

Una coalición global de más de 100 destacados expertos en Inteligencia Artificial (AI) ha publicado el Segundo Informe Internacional sobre la Seguridad de la IA (Second International AI Safety Report), emitiendo una severa advertencia sobre la evolución impredecible de los sistemas de IA de propósito general. Publicado pocos días antes de la crucial Cumbre sobre el Impacto de la IA en India (India AI Impact Summit) en Nueva Delhi, el informe destaca una desconexión crítica entre el rápido avance de las capacidades de la IA y las salvaguardas "insuficientes" que existen actualmente para gestionarlas.

Presidido por el científico ganador del Premio Turing, Yoshua Bengio, el informe sirve como un documento de consenso científico destinado a guiar a los responsables políticos en la próxima cumbre. Aunque reconoce el inmenso potencial de la IA para impulsar el crecimiento económico y el descubrimiento científico, las conclusiones pintan un panorama complejo de una tecnología que avanza a un ritmo vertiginoso, superando a menudo la capacidad humana para comprenderla o controlarla.

La paradoja de la inteligencia "dentada" (jagged)

Uno de los hallazgos más significativos del informe es el fenómeno del desempeño "dentado" (jagged performance) en los modelos de IA de última generación. Aunque estos sistemas han alcanzado un "desempeño de medalla de oro" en preguntas de la Olimpiada Internacional de Matemáticas y han superado el nivel de experiencia de un doctorado en puntos de referencia científicos específicos, siguen fallando estrepitosamente en tareas que serían triviales para un ser humano.

Esta inconsistencia crea una peligrosa ilusión de competencia. Los usuarios pueden confiar excesivamente en los sistemas en escenarios críticos —como el diagnóstico médico o el análisis legal— basándose en su desempeño en otros dominios de alto nivel. El informe señala que esta imprevisibilidad se ve agravada por la aparición de sistemas agénticos (agentic systems), que pueden actuar de forma autónoma para completar tareas de varios pasos.

"Cómo y por qué los modelos de IA de propósito general adquieren nuevas capacidades y se comportan de ciertas maneras suele ser difícil de predecir, incluso para los desarrolladores", afirma el informe.

Los expertos advierten que a medida que estos sistemas agénticos se integren más en la economía, la pérdida de control humano directo podría permitir que "capacidades peligrosas" pasen desapercibidas hasta después de su despliegue.

Riesgos crecientes: de las amenazas biológicas a la desigualdad sistémica

El informe de 2026 amplía significativamente las categorías de riesgo identificadas en la edición inaugural de 2025. Presenta nueva evidencia empírica que sugiere que la barrera de entrada para los actores malintencionados está disminuyendo.

Las áreas clave de preocupación incluyen:

  • Riesgos biológicos y cibernéticos: Los sistemas de IA ahora igualan o superan el desempeño de expertos en tareas relevantes para el desarrollo de armas biológicas, como la resolución de problemas en protocolos de laboratorios de virología. Del mismo modo, estas herramientas se están utilizando para reducir el umbral de habilidades necesarias para lanzar ciberataques sofisticados.
  • Deepfakes e imágenes no consentidas: La proliferación de contenido generado por IA está impulsando un aumento del fraude y de las imágenes íntimas no consentidas (NCII), que afectan de manera desproporcionada a mujeres y niñas. El informe cita un estudio que revela que 19 de cada 20 aplicaciones populares para "desnudar" (nudify) se especializan en esta forma de abuso.
  • Disrupción laboral sistémica: Más allá de los peligros inmediatos para la seguridad, el informe identifica riesgos estructurales más amplios. La integración de la IA en los mercados laborales amenaza con exacerbar la desigualdad, con el potencial de un desplazamiento masivo en sectores que anteriormente se consideraban a salvo de la automatización.

Tabla: Categorías de riesgo crítico identificadas en el informe de 2026

Categoría de riesgo Preocupación principal Estado actual
Uso malintencionado Reducción de barreras para ciberataques y armas biológicas Alta urgencia; explotación activa observada
Riesgos sistémicos Desplazamiento laboral y aumento de la desigualdad global Amenaza a largo plazo; requiere intervención política
Fallos técnicos Pérdida de control sobre sistemas agénticos autónomos Profundamente incierto; las salvaguardas son "falibles"
Desinformación Escala de las operaciones de influencia generadas por IA Crecimiento rápido; impacta los procesos democráticos

La brecha global: una historia de dos mundos

Mientras el mundo se prepara para la Cumbre sobre el Impacto de la IA en India (India AI Impact Summit), el informe pone el foco en la distribución desigual de los beneficios de la IA. Aunque la adopción ha sido "veloz", con al menos 700 millones de personas utilizando sistemas de IA líderes semanalmente, este uso está fuertemente concentrado en el Norte Global.

En contraste, las tasas de adopción en gran parte de África, Asia y América Latina se mantienen por debajo del 10%. Esta "brecha digital" plantea un riesgo severo: si la IA avanzada se convierte en el motor principal del crecimiento económico futuro, las naciones sin acceso a la tecnología —o a la infraestructura para soportarla— podrían quedarse permanentemente atrás.

Esta disparidad se alinea con los temas centrales de la próxima cumbre en Nueva Delhi. Bajo el lema de los "Sutras" de Personas, Planeta y Progreso, la cumbre pretende desplazar la conversación global desde los debates teóricos sobre seguridad hacia resultados prácticos e inclusivos que beneficien al Sur Global (Global South).

¿Una fractura en el consenso global?

En un desarrollo geopolítico notable, Estados Unidos se negó a firmar la versión final del informe, a pesar de haber proporcionado comentarios durante el proceso de redacción. Esto marca un distanciamiento de la unanimidad del año anterior. Aunque algunos observadores describen la medida como "en gran medida simbólica", subraya la creciente tensión entre la innovación rápida y los marcos regulatorios internacionales.

La postura de EE. UU. contrasta con la posición de otras potencias importantes, incluidas la Unión Europea y China, que han respaldado las conclusiones del informe. Esta divergencia puede preparar el terreno para debates polémicos en la cumbre de Nueva Delhi, mientras las naciones luchan por equilibrar la "carrera por la supremacía de la IA" con la necesidad de una gobernanza global coordinada.

Mirando hacia Nueva Delhi

La publicación de este informe establece la agenda para la Cumbre sobre el Impacto de la IA en India (India AI Impact Summit), programada del 16 al 20 de febrero de 2026. Los funcionarios indios, incluido el ministro Ashwini Vaishnaw, han enfatizado que el encuentro se centrará en la "apertura responsable" y el "acceso justo" a los recursos de computación.

Para los responsables políticos reunidos, el desafío será traducir las advertencias científicas del informe en políticas procesables. Como concluye el documento, las técnicas actuales de gestión de riesgos están "mejorando pero son insuficientes". El mundo mira ahora hacia Nueva Delhi para cerrar la brecha entre la identificación de estos riesgos existenciales y su mitigación real.

Destacados