Эффективные 開源遊戲 решения

Используйте 開源遊戲 инструменты с высокой производительностью для успешной работы.

開源遊戲

  • Искусственный интеллект-агент, который играет в Pentago Swap, оценивая состояние доски и выбирая оптимальные ходы с помощью алгоритма Монте-Карло Tree Search.
    0
    0
    Что такое Pentago Swap AI Agent?
    AI-агент Pentago Swap реализует интеллектуального противника для игры Pentago Swap, применяя алгоритм Monte Carlo Tree Search (MCTS) для исследования и оценки потенциальных игровых состояний. На каждом ходе агент моделирует множество вариантов, оценивает полученные позиции и выбирает ходы, максимизирующие вероятность победы. Поддерживаются настройка параметров поиска, таких как число симуляций, коэффициент исследования и политика моделирования, что позволяет пользователю оптимизировать производительность. Агент включает интерфейс командной строки для матчей один на один, обучение с использованием самоигр для генерации учебных данных, а также API на Python для интеграции в более крупные игровые среды или турниры. Благодаря модульной архитектуре облегчает расширение с использованием альтернативных эвристик или нейросетевых оценщиков для продвинутых исследований и разработки.
    Основные функции Pentago Swap AI Agent
    • Выбор хода на основе Monte Carlo Tree Search
    • Настраиваемые параметры поиска (число симуляций, коэффициент исследования)
    • Интерфейс командной строки для матчей один на один
    • Обучение с самоигрой и ведение журналов игр
    • API на Python для интеграции в другие окружения
  • Открытый агент RL для дуэлей Yu-Gi-Oh, предоставляющий моделирование среды, обучение политики и оптимизацию стратегии.
    0
    0
    Что такое YGO-Agent?
    Фреймворк YGO-Agent позволяет исследователям и энтузиастам создавать ИИ-ботов, которые играют в Yu-Gi-Oh, используя обучение с подкреплением. Он оборачивает симулятор YGOPRO в совместимую с OpenAI Gym среду, определяя состояния, такие как рука, поле и показатели жизни, а также действия, включая призыв, активацию заклинаний/ловушек и атаки. Вознаграждения основаны на исходе победы/проигрыша, нанесённом уроне и ходе игры. Архитектура агента реализована на PyTorch с использованием DQN, с возможностью настройки кастомных сетевых архитектур, повторной обучения опыта и ε-жадной стратегии исследования. Модули логирования регистрируют кривые обучения, коэффициенты выигрыша и подробные логовые записи ходов для анализа. Рамочное решение модульное, что позволяет пользователям заменять или расширять компоненты, такие как функции награды или пространство действий.
Рекомендуемые