- Passo 1: Clone o repositório do GitHub
- Passo 2: Configure o ambiente seguindo as instruções do README
- Passo 3: Execute modelos de inferência LLM locais ou na nuvem
- Passo 4: Inicie o cliente MCP e conecte-se ao servidor MCP
- Passo 5: Use a interface de chat para interagir com o LLM e avaliar o comportamento do MCP