
En un movimiento decisivo para fortalecer la intersección de la inteligencia artificial y las finanzas descentralizadas, OpenAI ha anunciado una asociación estratégica con la firma de inversión en cripto Paradigm. La colaboración introduce EVMbench, un benchmark integral diseñado para evaluar las capacidades de los agentes de IA (AI agents) en la detección, corrección y explotación de vulnerabilidades de contratos inteligentes.
A partir de febrero de 2026, el ecosistema cripto asegura más de 100.000 millones de dólares en activos de código abierto, lo que lo convierte en un objetivo lucrativo para los actores maliciosos. El lanzamiento de EVMbench representa un cambio crítico de la aplicación teórica de la IA a las pruebas prácticas y rigurosas en entornos económicamente significativos. Al proporcionar un marco estandarizado, OpenAI y Paradigm pretenden acelerar el desarrollo de sistemas de IA defensivos capaces de auditar y fortalecer el código antes de que llegue a la red principal (mainnet).
Esta iniciativa subraya el creciente reconocimiento de que, a medida que los agentes de IA se vuelven competentes en la lectura y escritura de código, deben ser probados rigurosamente frente a las limitaciones específicas y de alto riesgo de la Ethereum Virtual Machine (EVM).
EVMbench no es simplemente un conjunto de datos, sino un entorno de evaluación dinámico. Va más allá del análisis de código estático al sumergir a los agentes de IA en un entorno de blockchain aislado (sandbox) donde deben interactuar con bytecode en vivo. El benchmark evalúa a los agentes a través de tres modos de capacidad distintos pero interconectados, cada uno de los cuales imita una fase crítica en el ciclo de vida de la seguridad de los contratos inteligentes.
En el modo de detección, los agentes tienen la tarea de auditar un repositorio de contratos inteligentes. El objetivo es identificar vulnerabilidades de verdad fundamental (ground-truth)—aquellas que han sido confirmadas por auditores humanos—y marcarlas con precisión. Los agentes son puntuados en función de su "exhaustividad" (recall), o el porcentaje de vulnerabilidades conocidas que identifican con éxito. Este modo desafía la capacidad de la IA para comprender flujos lógicos complejos y reconocer patrones indicativos de fallos de seguridad, como ataques de reentrada (reentrancy attacks) o desbordamientos de enteros (integer overflows).
Quizás el más complejo de los tres, el modo de parcheo (patch) requiere que los agentes no solo encuentren una vulnerabilidad, sino que la solucionen. Las limitaciones aquí son significativas: el agente debe modificar el contrato vulnerable para eliminar el exploit conservando la funcionalidad original prevista. Esto se verifica a través de una suite de pruebas automatizadas. Si un agente "corrige" un error pero rompe inadvertidamente la lógica central del contrato o introduce errores de compilación, el intento se marca como un fallo. Esto imita la presión del mundo real sobre los desarrolladores para aplicar correcciones urgentes (hotfixes) sin interrumpir las operaciones del protocolo.
En este modo, los agentes actúan como atacantes. Se les entrega un contrato desplegado en un entorno de sandbox y deben ejecutar un ataque de extremo a extremo para drenar los fondos. La calificación se realiza de forma programática mediante la repetición de transacciones y la verificación en cadena (on-chain). Este modo es crítico para el "Red Teaming"—utilizar la IA para simular ataques de modo que las defensas puedan ser probadas en batalla contra las estrategias adversarias más creativas.
Para garantizar que el benchmark refleje los riesgos del mundo real, OpenAI y Paradigm seleccionaron 120 vulnerabilidades de alta gravedad de 40 auditorías diferentes. La mayoría de estas se obtuvieron de competiciones de auditoría de código abierto, como Code4rena, conocidas por sacar a la luz errores sutiles y de alto impacto.
Una adición notable al conjunto de datos incluye escenarios de vulnerabilidad extraídos del proceso de auditoría de seguridad para la blockchain Tempo. Tempo es una blockchain de Capa 1 construida con un propósito específico, diseñada para pagos con stablecoins de alto rendimiento y bajo costo. Al incluir escenarios de Tempo, EVMbench amplía su alcance al código de contratos inteligentes orientados a pagos, un dominio que se espera que experimente un crecimiento masivo a medida que los pagos con stablecoins mediante agentes se vuelvan comunes.
La infraestructura técnica que impulsa EVMbench es igualmente robusta. Utiliza un harness basado en Rust que despliega contratos y reproduce las transacciones de los agentes de forma determinante. Para evitar daños accidentales, las tareas de explotación se ejecutan en un entorno local aislado de Anvil en lugar de en redes en vivo, lo que garantiza que el terreno de pruebas sea seguro, reproducible y contenido.
El lanzamiento de EVMbench ha proporcionado las primeras perspectivas públicas sobre cómo se comporta la última generación de modelos de IA en el dominio de la criptoseguridad. OpenAI utilizó el benchmark para probar a sus agentes de frontera, revelando un salto significativo en las capacidades durante los últimos seis meses.
Las métricas de rendimiento destacan una mejora dramática en las capacidades "ofensivas", específicamente en el modo de explotación. Los datos muestran que la última iteración del modelo de codificación de OpenAI, GPT-5.3-Codex, supera ampliamente a su predecesor.
Tabla 1: Rendimiento comparativo en el modo Exploit
| Versión del modelo | Entorno de ejecución | Tasa de éxito de explotación |
|---|---|---|
| GPT-5.3-Codex | Codex CLI | 72.2% |
| GPT-5 | Estándar | 31.9% |
| GPT-4o (Referencia) | Estándar | < 15.0% |
El salto de una tasa de éxito del 31,9% con GPT-5 al 72,2% con GPT-5.3-Codex indica que los agentes de IA se están volviendo excepcionalmente competentes en la identificación y ejecución de rutas de explotación cuando se les da un objetivo claro y explícito (por ejemplo, "drenar fondos").
Sin embargo, el benchmark también reveló una brecha persistente entre las capacidades ofensivas y defensivas. Mientras que los agentes sobresalieron en la tarea de Exploit, su rendimiento en las tareas de Detect y Patch se mantuvo más bajo.
La colaboración entre OpenAI y Paradigm señala una maduración de la narrativa "IA x Cripto". Paradigm, conocida por su profunda experiencia técnica y su enfoque de inversión en cripto basado en la investigación, proporcionó el conocimiento del dominio necesario para garantizar que las tareas del benchmark no solo fueran sintácticamente correctas, sino semánticamente significativas para los desarrolladores de blockchain.
Al publicar las tareas, las herramientas y el marco de evaluación de EVMbench como código abierto, los socios están emitiendo efectivamente una "llamada a las armas" para la comunidad de desarrolladores. El objetivo es democratizar el acceso a herramientas de seguridad de alto nivel, permitiendo que desarrolladores individuales y equipos pequeños auditen sus contratos inteligentes con el mismo rigor que las firmas de seguridad de primer nivel.
En conjunto con el lanzamiento del benchmark, OpenAI anunció la expansión de la beta privada de Aardvark, su agente de investigación de seguridad dedicado. Aardvark representa la aplicación práctica de los conocimientos obtenidos de EVMbench: un agente de IA ajustado específicamente para tareas de seguridad defensiva.
Además, OpenAI está comprometiendo 10 millones de dólares en créditos de API para acelerar la investigación en ciberdefensa. Este programa de subvenciones se centra en la aplicación de los modelos más capaces de la empresa para proteger el software de código abierto y los sistemas de infraestructura crítica, garantizando que los beneficios de la seguridad de la IA se distribuyan ampliamente en todo el ecosistema.
La introducción de EVMbench sirve tanto como herramienta de medición como advertencia. La rápida mejora en la capacidad de la IA para explotar contratos (evidenciada por la tasa de éxito del 72,2% de GPT-5.3-Codex) sugiere que la ventana para la "seguridad por oscuridad" se está cerrando rápidamente. A medida que los agentes de IA se vuelven atacantes más capaces, las herramientas defensivas deben evolucionar a una velocidad igual o mayor.
Para la industria de blockchain, esto significa que la auditoría asistida por IA pronto pasará de ser un lujo a ser una necesidad. Las futuras iteraciones de EVMbench pueden expandirse para incluir entornos multicadena, vulnerabilidades entre puentes (cross-bridge) y ataques de ingeniería social más complejos, reflejando el panorama de amenazas en evolución de la Web3.
As nos adentramos en 2026, la sinergia entre los motores de razonamiento de OpenAI y los conocimientos criptonativos de Paradigm establece un nuevo estándar sobre cómo abordamos la confianza digital. La pregunta ya no es si la IA se utilizará para asegurar los contratos inteligentes, sino qué tan rápido puede la industria adoptar estos benchmarks para mantenerse por delante de la próxima generación de amenazas automatizadas.