Text-to-Rewardは、テキストベースのタスク記述やフィードバックをRLエージェント用のスカラー報酬値にマッピングするモデルを訓練するパイプラインを提供します。トランスフォーマーベースのアーキテクチャと収集された人間の優先データによる微調整を利用し、自然言語命令を報酬信号として解釈することを自動的に学習します。ユーザーはテキストプロンプトを使って任意のタスクを定義し、モデルを訓練し、学習した報酬関数を任意のRLアルゴリズムに取り入れることが可能です。このアプローチは手動の報酬調整をなくし、サンプル効率を向上させ、エージェントが複雑なマルチステップ指示を模擬または実環境で実行できるようにします。