DeepSeek R1 使用一個擁有 37B 活躍/671B 總參數的 MoE 系統,支持 128K 上下文,並通過純強化學習進行優化,無需監督微調。
DeepSeek R1 的成本低於 90-95%,在維持兼等推理能力的同時,提供顯著的成本節省。
是的,DeepSeek R1 支持通過 vLLM/SGLang 進行本地部署,並為資源有限的環境提供 6 種蒸餾模型。
DeepSeek R1 在 MATH-500(97.3%)、Codeforces(96.3% 百分位)和 AIME 2024(79.8%)中達成了 SOTA,超越了許多商業模型。
是的,DeepSeek R1 具有 MIT 許可,並在 GitHub 上提供完整模型權重,允許商業使用和修改。
其特點是自我驗證和多步反思,通過可見的思維鏈解決複雜問題。
它非常適合 AI 研究、企業代碼生成、數學建模和多語言 NLP 應用。
它提供 OpenAI 兼容的 API 端點,支持 128K 上下文和智能緩存,價格具有競爭力。
它包含內建的重複控制和對齊機制,以防止強化學習訓練模型中的無限循環。
通過 GitHub 提供的 DeepSeek R1 技術論文和 API 文檔可以訪問完整規格。