Selective Reincarnation引入一個針對MARL的動態群體型訓練機制。每個代理的表現會定期根據預設閾值評估。當某代理的表現低於同儕時,其權重會被重置為當前表現最佳代理的權重,有效地使其再生,展現驗證過的行為。此策略僅重置表現不佳的代理,維持多樣性,最小化破壞性重置,同時引導探索高回報策略。透過有針對性的神經網路參數遺傳,能降低變異並加速在合作或競爭環境的收斂。兼容任何基於策略梯度的MARL算法,且可無縫整合至PyTorch流程中,並包含可調的超參數設定,如評估頻率、篩選標準與重置策略調整。