
En un importante salto adelante para los sistemas autónomos, investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL), en colaboración con Asari AI y Caltech, han presentado EnCompass, un nuevo framework diseñado para resolver uno de los desafíos más persistentes en la IA generativa: la incapacidad de los agentes para corregir eficazmente sus propios errores.
Lanzado hoy, el framework introduce un cambio de paradigma en la forma en que los desarrolladores construyen agentes de Modelos de Lenguaje Extensos (LLM), permitiendo que los sistemas realicen "backtracking" (retroceso) y optimicen sus rutas de razonamiento sin requerir una infraestructura compleja codificada a medida. Los primeros puntos de referencia indican que EnCompass puede ofrecer un aumento del 15-40% en la precisión para tareas complejas, al tiempo que reduce la base de código necesaria en un 82%, disminuyendo significativamente la barrera de entrada para construir aplicaciones de IA robustas.
A medida que los agentes de IA pasan de ser simples chatbots a sistemas autónomos capaces de ejecutar flujos de trabajo de múltiples pasos —como asistentes de programación o analistas de datos—, se enfrentan a un cuello de botella crítico de fiabilidad. Los agentes estándar suelen procesar las tareas de forma lineal. Si un agente comete un error menor en el paso tres de un proceso de diez pasos, ese error se agrava, lo que a menudo conduce a un fracaso total en el paso final. Este fenómeno, descrito por los investigadores como "niebla mental de la IA", da como resultado que los agentes pierdan el contexto o alucinen mientras luchan por recuperarse de los traspiés iniciales.
Tradicionalmente, solucionar esto requería que los desarrolladores programaran manualmente bucles intrincados y lógica de manejo de errores para cada punto potencial de fallo. Este código de "fontanería" a menudo oscurece la lógica real del agente, haciendo que los sistemas sean frágiles y difíciles de mantener. Los LLM actuales generalmente carecen de un botón de "deshacer" innato para su proceso de razonamiento, lo que los obliga a comprometerse con una ruta errónea incluso cuando detectan un error.
EnCompass aborda esto separando fundamentalmente la lógica del flujo de trabajo de un agente de su estrategia de búsqueda. En lugar de un modelo de ejecución lineal, EnCompass permite que el programa de un agente sea tratado como un espacio de búsqueda.
Usando un decorador de Python (@encompass.compile), los desarrolladores pueden transformar una función estándar en un árbol de posibilidades navegable. Esto permite que la IA pueda:
Esta capacidad otorga efectivamente a los agentes de IA una forma de "viaje en el tiempo", permitiéndoles revisar decisiones y elegir una ruta mejor, de manera muy similar a como un humano replantea una estrategia cuando se da cuenta de que ha llegado a un callejón sin salida.
Bajo el capó, EnCompass implementa un modelo de programación conocido como Probabilistic Angelic Nondeterminism (PAN). Esto permite al framework desenredar qué intenta hacer el agente (el objetivo) de cómo navega la incertidumbre de las salidas del LLM (la búsqueda). Al estandarizar esta interacción, EnCompass elimina la necesidad de código de corrección de errores a medida, gestionando automáticamente la compleja gestión de estados.
El impacto de este framework en la productividad de los desarrolladores y el rendimiento de los agentes es sustancial. Al automatizar el componente de "búsqueda" del comportamiento del agente, EnCompass permite a los desarrolladores centrarse puramente en las instrucciones de la tarea.
La siguiente comparación destaca las ganancias de eficiencia observadas en los estudios de caso del equipo de investigación:
Comparación: Desarrollo estándar frente al Framework EnCompass
| Característica | Desarrollo de agentes estándar | Framework EnCompass |
|---|---|---|
| Gestión de errores | Bucles try/except manuales y rígidos |
Backtracking automático y búsqueda de rutas |
| Volumen de código | Alto (gran sobrecarga de código repetitivo) | Bajo (reducción del 82% en código estructural) |
| Precisión | Se degrada con la longitud de la tarea | Aumento del 15-40% mediante el escalado en tiempo de inferencia |
| Flexibilidad | Difícil de cambiar de estrategia | Cambia de estrategia modificando un solo parámetro |
| Modelo de ejecución | Lineal (Disparo único) | Basado en árboles (Exploración de múltiples rutas) |
En pruebas prácticas que involucraron tareas de razonamiento complejo, los agentes construidos con EnCompass superaron consistentemente a sus contrapartes estándar. La capacidad de explorar diversas rutas de ejecución significó que, incluso si el LLM subyacente no era perfecto, el sistema aún podía llegar a la respuesta correcta filtrando las cadenas de razonamiento incorrectas.
Para la industria de la IA, EnCompass representa una maduración de los flujos de trabajo agénticos. El "escalado en tiempo de inferencia" —la idea de que una IA puede "pensar más tiempo" para producir mejores resultados— ha sido un enfoque principal para laboratorios como OpenAI y Google DeepMind. Sin embargo, EnCompass democratiza esta capacidad, proporcionando una herramienta genérica que cualquier desarrollador de Python puede usar para añadir una búsqueda de razonamiento sofisticada a sus aplicaciones.
Este cambio tiene implicaciones profundas:
A medida que MIT CSAIL y Asari AI lanzan este framework a la comunidad en general, anticipamos una ola de agentes "autocorrectores" entrando en el mercado. Si bien los LLM actuales son impresionantes, su utilidad se ha visto limitada por su fragilidad en tareas de múltiples pasos. EnCompass proporciona la integridad estructural necesaria para construir la próxima generación de software autónomo: agentes que no solo adivinan, sino que piensan, retroceden y verifican hasta que hacen bien el trabajo.