Herramientas игры с открытым исходным кодом de alto rendimiento

Accede a soluciones игры с открытым исходным кодом que te ayudarán a completar tareas complejas con facilidad.

игры с открытым исходным кодом

  • Un agente de IA que juega Pentago Swap evaluando los estados del tablero y seleccionando las colocaciones óptimas utilizando Búsqueda Monte Carlo en Árbol.
    0
    0
    ¿Qué es Pentago Swap AI Agent?
    El Agente de IA de Pentago Swap implementa un oponente inteligente para el juego Pentago Swap aprovechando un algoritmo de Búsqueda Monte Carlo en Árbol (MCTS) para explorar y evaluar posibles estados del juego. En cada turno, el agente simula numerosas partidas, puntuando las posiciones resultantes para identificar movimientos que maximicen la probabilidad de ganar. Soporta la personalización de parámetros de búsqueda como el número de simulaciones, constante de exploración y política de partidas, permitiendo a los usuarios ajustar el rendimiento. El agente incluye una interfaz de línea de comandos para enfrentamientos directos, autojuego para generar datos de entrenamiento, y una API en Python para integración en entornos de juego o torneos más grandes. Construido con código modular, facilita la extensión con heurísticas alternativas o evaluadores de redes neuronales para investigación avanzada y desarrollo.
  • Un agente RL de código abierto para duelos de Yu-Gi-Oh, que proporciona simulación de entorno, entrenamiento de políticas y optimización de estrategias.
    0
    0
    ¿Qué es YGO-Agent?
    El marco YGO-Agent permite a investigadores y entusiastas desarrollar bots de IA que juegan al juego de cartas Yu-Gi-Oh usando aprendizaje por refuerzo. Envuelve el simulador YGOPRO en un entorno compatible con OpenAI Gym, definiendo representaciones de estado como mano, campo y puntos de vida, así como representaciones de acción que incluyen invocaciones, activación de hechizos/trampas y ataques. Las recompensas se basan en resultados de victoria/derrota, daño causado y progreso del juego. La arquitectura del agente usa PyTorch para implementar DQN, con opciones para arquitecturas de red personalizadas, reproducción de experiencia y exploración epsilon-greedy. Los módulos de registro registran curvas de entrenamiento, tasas de victoria y registros detallados de movimientos para análisis. El marco es modular, permitiendo a los usuarios reemplazar o extender componentes como la función de recompensa o el espacio de acción.
Destacados