AIpacman предлагает полноценный набор инструментов на Python для разработки, визуализации и бенчмаркинга AI-агентов в классической среде Pac-Man. В него входят реализации поисковых алгоритмов (DFS, BFS, A*, UCS), adversarial методов (Minimax, Alpha-Beta, Expectimax) и методов обучения с подкреплением (Q-Learning). Благодаря гибкой настройке лабиринтов, метрикам производительности и CLI-управлению пользователи могут легко расширять агентов, анализировать стратегии и получать практический опыт в области ИИ.
AIpacman предлагает полноценный набор инструментов на Python для разработки, визуализации и бенчмаркинга AI-агентов в классической среде Pac-Man. В него входят реализации поисковых алгоритмов (DFS, BFS, A*, UCS), adversarial методов (Minimax, Alpha-Beta, Expectimax) и методов обучения с подкреплением (Q-Learning). Благодаря гибкой настройке лабиринтов, метрикам производительности и CLI-управлению пользователи могут легко расширять агентов, анализировать стратегии и получать практический опыт в области ИИ.
AIpacman — это open-source проект на Python, моделирующий среду игры Pac-Man для экспериментов с ИИ. Пользователи могут выбрать встроенных агентов или реализовать собственных с помощью алгоритмов поиска (DFS, BFS, A*, UCS), adversarial методов (Minimax с обрезкой Alpha-Beta и Expectimax) или техник обучения с подкреплением (Q-Learning). Фреймворк обеспечивает конфигурируемые лабиринты, логирование производительности, визуализацию решений агентов и CLI для запуска матчей и сравнения результатов. Он предназначен для образовательных целей, исследований и личных проектов в области ИИ и разработки игр.
Открытая платформа с несколькими агентами для обучения с подкреплением, позволяющая управлять агентами на уровне команды и взаимодействовать в StarCraft II через PySC2.
BotPlayers — это открытая платформа с открытым исходным кодом, позволяющая создавать, тестировать и развертывать агентов для игр с поддержкой обучения с подкреплением.
Искусственный интеллект-агент, который играет в Pentago Swap, оценивая состояние доски и выбирая оптимальные ходы с помощью алгоритма Монте-Карло Tree Search.