
En una revelación que simultáneamente muestra el asombroso avance de la inteligencia artificial y expone una vulnerabilidad crítica en el ecosistema de las finanzas descentralizadas (DeFi), OpenAI ha presentado EVMbench, un nuevo marco de pruebas integral diseñado para evaluar las capacidades de los agentes de IA en la seguridad de blockchain. Los resultados del estándar inaugural son tan impresionantes como inquietantes: el último modelo especializado de OpenAI, GPT-5.3-Codex, explotó y drenó con éxito carteras de criptomonedas en el 72.2% de los casos de prueba, demostrando una competencia en ciberofensiva que actualmente supera con creces a sus contrapartes defensivas.
Lanzado en colaboración con la firma de inversión en criptomonedas Paradigm, EVMbench sirve como un campo de pruebas estandarizado para medir qué tan bien los modelos de IA pueden detectar, parchear y explotar vulnerabilidades en contratos inteligentes de la Ethereum Virtual Machine (EVM). Mientras que la iniciativa busca reforzar la seguridad a través del "red teaming", los datos inmediatos apuntan a una brecha creciente entre la espada y el escudo. Mientras que GPT-5.3-Codex demostró ser un depredador digital formidable, su capacidad para proteger —obteniendo puntuaciones significativamente más bajas en tareas de detección y parcheo— ha provocado discusiones urgentes sobre la seguridad de los 100 mil millones de dólares bloqueados en contratos inteligentes en todo el mundo.
La estadística principal de una tasa de éxito del 72.2% en la categoría "Exploit" marca un salto generacional masivo en las capacidades de IA. Solo seis meses antes, el modelo estándar GPT-5 logró una tasa de éxito de apenas el 31.9% en tareas similares. Esta duplicación de la eficacia sugiere que el ajuste especializado en GPT-5.3-Codex ha desbloqueado una comprensión más profunda de los flujos lógicos complejos y los incentivos económicos inherentes a los protocolos de blockchain.
Sin embargo, el estándar también destacó una asimetría preocupante. Si bien la IA destacó rompiendo sistemas, tuvo dificultades para repararlos. En el modo "Patch" (Parche), donde el agente debe solucionar una vulnerabilidad sin romper la funcionalidad prevista del contrato, las tasas de éxito rondaron el 41.5%. Del mismo modo, en el modo "Detect" (Detectar), que imita una auditoría de código tradicional, los modelos a menudo fallaron en identificar errores conocidos, con los mejores exponentes como Claude Opus 4.6 logrando solo una tasa de detección del 45.6%.
Esta disparidad subraya una realidad fundamental de la arquitectura actual de los LLM: es computacionalmente más fácil para un agente encontrar una única ruta hacia el fallo (explotación) que garantizar la ausencia de todos los fallos (verificación de seguridad). La tabla a continuación ilustra el marcado contraste de rendimiento en diferentes modos operativos en el nuevo estándar.
Tabla 1: Rendimiento del modelo de IA en los modos de EVMbench
| Métrica | GPT-5.3-Codex (Actual) | GPT-5 (6 meses antes) | Claude Opus 4.6 |
|---|---|---|---|
| Tasa de éxito de explotación | 72.2% | 31.9% | N/A |
| Tasa de éxito de parcheo | 41.5% | N/A | N/A |
| Recuperación de detección | N/A | N/A | 45.6% |
Para asegurar que estos resultados reflejen riesgos del mundo real en lugar de ejercicios teóricos, OpenAI y Paradigm construyeron EVMbench utilizando 120 vulnerabilidades seleccionadas de 40 auditorías profesionales de contratos inteligentes. Estos no fueron errores sintéticos, sino fallos reales encontrados en código de producción, muchos provenientes de plataformas de auditoría competitivas como Code4rena.
El estándar opera en un entorno de sandbox conocido como Anvil, lo que permite a los agentes de IA interactuar con una simulación de blockchain local. Este aislamiento permite a los modelos intentar acciones destructivas —como ataques de reentrada o manipulación lógica— sin arriesgar fondos reales de los usuarios.
El marco evalúa a los agentes en tres competencias distintas:
Tabla 2: Modos de evaluación de EVMbench
| Modo | Objetivo | Criterios de éxito |
|---|---|---|
| Detectar | Auditar un repositorio para encontrar vulnerabilidades. | Recuperación de fallos reales confirmados por auditores humanos. |
| Parchear | Reescribir el código para eliminar la vulnerabilidad. | La vulnerabilidad desaparece Y la funcionalidad principal permanece intacta. |
| Explotar | Atacar un contrato desplegado para robar fondos. | Drenaje exitoso del saldo en cripto del contrato. |
Crucialmente, el estándar incluye escenarios de la Tempo blockchain, una nueva red de Capa 1 desarrollada por Stripe y Paradigm enfocada en pagos de stablecoins de alto rendimiento. La inclusión de desafíos específicos de Tempo indica que OpenAI no solo está mirando el código legado de Ethereum, sino que está probando activamente contra la infraestructura de próxima generación donde se espera que proliferen los pagos agénticos.
Quizás la anécdota más alarmante del documento de investigación adjunto involucra un caso de prueba específico donde un agente impulsado por GPT-5.2 (una versión intermedia) ejecutó un complejo ataque de "flash loan".
Los ataques de préstamos rápidos son explotaciones financieras sofisticadas que requieren pedir prestada una cantidad masiva de capital, usarla para manipular los precios de mercado o la lógica del protocolo, y devolver el préstamo dentro de un solo bloque de transacción. Normalmente son el dominio de hackers humanos de élite debido a la secuenciación precisa requerida.
En la prueba de EVMbench, el agente de IA:
Logró esto sin guía humana, instrucciones paso a paso o ejemplos previos de la arquitectura de este contrato específico. Esta capacidad indica que los agentes autónomos están yendo más allá de la simple coincidencia de patrones hacia el razonamiento estratégico de múltiples pasos, un desarrollo que plantea riesgos existenciales para los protocolos de finanzas descentralizadas (DeFi) mal auditados.
Reconociendo el potencial de que estas herramientas sean utilizadas como armas, OpenAI está enmarcando el lanzamiento de EVMbench y GPT-5.3-Codex como un "imperativo defensivo". La lógica es que, al poner estas poderosas herramientas ofensivas en manos de investigadores de seguridad "white hat", las vulnerabilidades pueden ser encontradas y corregidas antes de que actores maliciosos las exploten.
Para apoyar este ecosistema defensivo, OpenAI anunció el Cybersecurity Grant Program, prometiendo 10 millones de dólares en créditos de API para desarrolladores e investigadores que trabajen en herramientas de defensa de código abierto. El objetivo es reducir la barrera de entrada para la auditoría automatizada, permitiendo que incluso proyectos pequeños accedan a controles de seguridad de vanguardia.
Además, la empresa está expandiendo la beta privada de Aardvark, un agente dedicado a la investigación de seguridad. A diferencia de los modelos Codex de propósito general, Aardvark está entrenado específicamente en literatura de seguridad, informes de auditoría y métodos de verificación formal. Pruebas internas tempranas sugieren que Aardvark puede ayudar a cerrar la brecha entre la ofensiva y la defensa, utilizando la "mentalidad de atacante" de GPT-5.3 para predecir explotaciones y sugerir parches proactivamente.
El lanzamiento de EVMbench llega en un momento crucial para la industria cripto, tras una serie de explotaciones de alto perfil, incluyendo la reciente pérdida de 2.7 millones de dólares en el protocolo Moonwell debido a un error en el código generado por IA. La industria se enfrenta actualmente a una espada de doble filo: la IA se utiliza cada vez más para escribir contratos inteligentes, introduciendo a menudo errores sutiles, mientras que simultáneamente es la única herramienta lo suficientemente escalable para auditar el volumen explosivo de código de blockchain.
La participación de Paradigm sugiere que los principales actores institucionales ven la seguridad de la IA no como un lujo, sino como un requisito previo para la adopción masiva de stablecoins y rieles financieros descentralizados. Si los agentes de IA van a manejar pagos autónomos en redes como Tempo, deben ser resilientes contra la IA adversaria que intente robarles.
Los expertos advierten que la "tasa de explotación del 72%" es probablemente un piso, no un techo. A medida que los modelos continúen escalando y utilicen técnicas como la cadena de pensamiento (Chain-of-Thought) durante la inferencia, su capacidad para encontrar vulnerabilidades oscuras de "cisne negro" probablemente aumentará.
Por ahora, el mensaje para los desarrolladores de contratos inteligentes es claro: la IA que te ayuda a escribir tu código también es capaz de robarte. Hasta que las capacidades defensivas se pongan al día, el único camino seguro es la auditoría rigurosa dirigida por humanos, aumentada —pero no reemplazada— por las mismas herramientas de IA que amenazan al sistema.