基于 verl 框架和 ScaleBox 的代码强化学习实践

举报
昇腾CANN 发表于 2026/01/19 10:29:55 2026/01/19
【摘要】 项目背景 在基于大模型的代码强化学习(Code RL)训练体系中,奖励信号的获取是一层关键、却长期被低估的系统能力。但随着训练规模和并发强度的持续提升,这一层正在发生明显变化:随着 Code RL 规模持续扩大,这类面向高并发执行与端到端验证的训练体系,正在成为下一阶段实践中不可或缺的基础设施。​训练范式的变化:从离线评测走向在线、大规模并发的代码执行;    训练瓶颈的变化:奖励计算不再是...

项目背景 在基于大模型的代码强化学习(Code RL)训练体系中,奖励信号的获取是一层关键、却长期被低估的系统能力。但随着训练规模和并发强度的持续提升,这一层正在发生明显变化:

随着 Code RL 规模持续扩大,这类面向高并发执行与端到端验证的训练体系,正在成为下一阶段实践中不可或缺的基础设施。

  • 训练范式的变化:从离线评测走向在线、大规模并发的代码执行;
  •     训练瓶颈的变化:奖励计算不再是“附属步骤”,而是对执行性能、稳定性与扩展性的核心考验。

在这一背景下,代码执行与奖励计算,已经不再只是训练流程中的一个功能模块,而逐步演进为 Code RL 系统中的关键基础设施。但在现有实践中,瓶颈依然突出:

  • 高并发奖励执行成为系统短板。当前多数 Code RL 方案依赖本地或轻量级沙盒执行代码,在接口抽象、资源隔离、并发调度与横向扩展能力上,最终限制训练吞吐并放大不稳定因素,成为“看不见但最致命”的短板。
  • 昇腾平台缺乏可复用的端到端方案。从训练框架到执行沙盒,往往需要用户自行完成大量适配与工程整合,导致链路复杂、复用成本高、验证周期长,难以快速验证和推广。

项目方案

在此背景下,我们构建了基于昇腾平台的 verl × ScaleBox 训练体系。该体系并非简单地“引入一个执行组件”,而是围绕 Code RL 的核心需求,系统性地构建了一套面向高并发奖励计算、并完成昇腾平台验证的端到端解决方案:

可扩展的分布式代码执行能力:通过设计并集成 ScaleBox 分布式代码执行沙盒,实现高并发、低延迟、可横向扩展的
Reward 执行能力,为Code RL 提供稳定可靠的执行底座。  
统一化部署与使用体验:提供 verl × ScaleBox 的统一部署镜像和标准化代码执行奖励接口,降低环境搭建与系统集成成本,使训练流程从“复杂工程问题”回归到“算法与策略迭代”。

Ascend 端到端训练验证:基于 DeepSeek-R1-Distill-Qwen-1.5B、Qwen3-4B、Qwen3-30B-A3B 等模型,完成在昇腾平台上的 Code RL 端到端训练验证,证明该体系在真实训练场景中的可行性与稳定性。

1212121.jpg

代码链接:

https://gitcode.com/cann/cann-recipes-train/tree/master/agentrl/qwen2code_rl

随着 Code RL 规模持续扩大,这类面向高并发执行与端到端验证的训练体系,正在成为下一阶段实践中不可或缺的基础设施。


更多精彩预约1月19日直播


008vHcOYgy1i9em9kqtmqj3045042wei.jpg


【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。