DeepSeek 与清华联合研究:创新奖励模型推理方法,提升可扩展性2025 年 4 月 5 日DeepSeek 与清华研究者提出自我原则点评调优(SPCT)方法及元奖励模型,提升奖励模型推理可扩展性,构建 DeepSeek-GRM 系列模型。SPCT 分两阶段提高 GRM 质量与扩展性,实验显示 DeepSeek-GRM-27B 性能优异。团队通过生成奖励投票和元奖励模型引导提升推理扩展性能,证明其有效性优于单纯扩大模型规模。DeepSeek 提出通用奖励模型新方法 SPCT,探索推理时缩放提升 AI 对齐效率,或将应用于 R2麻省理工科技评论DeepSeek R2 来了?全新推理时 Scaling 论文联手清华震撼发布!站长之家 / 华尔街见闻DeepSeek R2 来了?全新推理时 Scaling 论文联手清华震撼发布凤凰科技展开全部报道专业版功能登录体验专业版特色功能,拓展更丰富、更全面的相关内容。