news 2026/5/10 10:32:48

CANN/cann-recipes-train基于verl-retool的agent样例

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
CANN/cann-recipes-train基于verl-retool的agent样例

基于verl-retool的agent样例

【免费下载链接】cann-recipes-train本项目针对LLM与多模态模型训练业务中的典型模型、加速算法,提供基于CANN平台的优化样例项目地址: https://gitcode.com/cann/cann-recipes-train

概述

本样例参考verl/recipe中的retool项目,在NPU上进行agent RL训练。训练过程分为如下两步:

  • SFT训练:使用ReTool-SFT数据集对Qwen3-4B-Instruct-2507模型进行SFT训练,帮助模型学会调用Sandbox工具进行python编程;
  • RL训练:使用DAPO-Math-17k数据集对前一步SFT过的模型进行RL训练,帮助模型更好地使用Sandbox工具,辅助自身推理思考。

本样例将帮助大家了解verl中的asyncLLMagent_loop特性,使用昇腾NPU完成agent RL训练任务。

支持的产品型号

Atlas A3系列产品。 本样例所需计算资源:8卡A3(16die)

文件说明

文件路径说明
0001-Fix-reward-function-not-accessing-num_turns.patch修复奖励函数获取不到num_turns值的bug
0002-Update-paths-in-retool_sft_preprocess.py.patch修改retool_sft_preprocess.py中的路径配置
0003-Modify-compute_score-to-encourage-tool-call.patch修改奖励函数,鼓励工具调用

环境准备

  1. 使用Docker构建环境,请根据实际产品选择Docker镜像和设备数量,文档以A3为例。

    # 获取Docker镜像 docker pull quay.io/ascend/vllm-ascend:v0.10.2rc1-a3 # 构建Docker容器 docker run \ --device=/dev/davinci0 --device=/dev/davinci1 --device=/dev/davinci2 --device=/dev/davinci3 --device=/dev/davinci4 --device=/dev/davinci5 --device=/dev/davinci6 --device=/dev/davinci7 --device=/dev/davinci8 --device=/dev/davinci9 --device=/dev/davinci10 --device=/dev/davinci11 --device=/dev/davinci12 --device=/dev/davinci13 --device=/dev/davinci14 --device=/dev/davinci15 --device=/dev/davinci_manager --device=/dev/devmm_svm --device=/dev/hisi_hdc \ -v /etc/localtime:/etc/localtime \ -v /usr/local/dcmi:/usr/local/dcmi \ -v /usr/local/Ascend/driver:/usr/local/Ascend/driver \ -v /usr/local/Ascend/firmware:/usr/local/Ascend/firmware \ -v /var/log/npu/:/usr/slog \ -v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \ -v /sys/fs/cgroup:/sys/fs/cgroup:ro \ -v /etc/ascend_install.info:/etc/ascend_install.info \ -v ${HOST_WORKSPACE}:${HOST_WORKSPACE} \ -w ${HOST_WORKSPACE} \ --shm-size=100g \ --privileged=true \ -itd \ --net=host \ --name ${YOUR_CONTAINER_NAME} \ quay.io/ascend/vllm-ascend:v0.10.2rc1-a3 \ /bin/bash # 进入容器 docker exec -it ${YOUR_CONTAINER_NAME} bash

    其中:

    • -v ${HOST_WORKSPACE}:${HOST_WORKSPACE}为挂载业务目录
    • -w ${HOST_WORKSPACE}为设置工作目录,进入后直接操作
    • --name ${YOUR_CONTAINER_NAME}为配置容器名
  2. 下载项目源码并安装依赖的python库。

    git clone https://gitcode.com/cann/cann-recipes-train.git cd cann-recipes-train/agent_rl/qwen3_tool_agent pip install -r requirements.txt
  3. 安装verl。

    git clone https://github.com/volcengine/verl.git cd verl # 切换至包含retool的历史版本(retool已从verl迁移至verl-recipe仓库,最新分支无该项目) git checkout 95470480 # 使能patch修改 git am ../patches/*.patch pip install -e . cd recipe/retool

SFT训练

  1. 准备数据集。

    执行sft数据集处理脚本。

    python3 retool_sft_preprocess.py
  2. 准备模型权重。

    hf download Qwen/Qwen3-4B-Instruct-2507 --local-dir ReTool-SFT/model/Qwen3-4B-Instruct-2507
  3. 将SFT训练脚本run_qwen3_4b_sft_npu.shqwen3_tool_agent移动到qwen3_tool_agent/verl/recipe/retool目录下,开始SFT训练。

    mkdir -p log/sft_run_log bash run_qwen3_4b_sft_npu.sh
  4. 合并训练好的模型权重。

    python3 -m verl.model_merger merge \ --backend fsdp \ --local_dir checkpoint/multiturn-sft-qwen-3-4b-instruct/global_step_186 \ --target_dir checkpoint/multiturn-sft-qwen-3-4b-instruct/global_step_186/huggingface

RL训练

  1. 准备Sandbox环境。

    参考SandboxFusion/README.md准备Sandbox服务,该README中提供了DockerManual两种安装方法,Docker安装方法需要获取服务器支持的镜像,如果无法获取,建议采用Manual安装方法,具体流程如下:

    1)将SandboxFusion源码拉取到cann-recipes-train/agent_rl/qwen3_tool_agent目录下。

    git clone https://github.com/bytedance/SandboxFusion.git cd SandboxFusion

    2)创建sandbox conda环境并安装依赖。

    conda create -n sandbox -y python=3.12 conda activate sandbox pip install poetry poetry install mkdir -p docs/build

    3)创建sandbox-runtime conda环境并安装依赖。

    # 返回到cann-recipes-train/agent_rl/qwen3_tool_agent目录。 conda create -n sandbox-runtime -y python=3.10 conda activate sandbox-runtime # 样例中的requirements-runtime.txt修改自SandboxFusion/runtime/python/requirements.txt,移除了安装失败的依赖包。 pip install -r requirements-runtime.txt

    4)启动Sandbox服务。

    cd SandboxFusion conda activate sandbox make run-online

    启动成功后会显示如下信息:

    INFO: Application startup complete. INFO: Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)

    Sandbox服务启动后不要关闭,agent在训练时需要实时交互,重新打开一个终端进入容器和qwen3_tool_agent/verl/recipe/retool目录后再执行后续命令。

  2. 准备训练数据集和验证数据集。

    # train hf download BytedTsinghua-SIA/DAPO-Math-17k --repo-type=dataset --local-dir dataset/BytedTsinghua-SIA/DAPO-Math-17k # val hf download yentinglin/aime_2025 --repo-type=dataset --local-dir dataset/yentinglin/aime_2025
  3. 将RL训练脚本run_qwen3_4b_dapo_npu.shqwen3_tool_agent移动到qwen3_tool_agent/verl/recipe/retool目录下,开始RL训练。

    mkdir -p log/rl_run_log bash run_qwen3_4b_dapo_npu.sh
  4. 训练结果。

    val_before_train(step 0),aime_2025数据集验证指标如下:

    • val-core/aime_2025/acc/mean@30: 0.29
    • val-aux/num_turns/mean: 7.0

    130个step训练后,aime_2025数据集验证指标如下:

    • val-core/aime_2025/acc/mean@30: 0.57
    • val-aux/num_turns/mean: 5.4
  5. 训练后模型response样例:

    从样例中可以看出,训练后的模型在解决问题的时候先使用大段的文本推理(图片中有所省略)对用户输入的问题进行分析,然后调用代码工具处理复杂的动态规划计算,代码工具计算出结果后作为新的输入传输给模型,模型对代码返回的结果校验后输出最终的答案。可以总结为如下流程:

    问题输入$\longrightarrow$模型思考$\longrightarrow$调用代码工具$\longrightarrow$返回结果作为新一轮的输入$\longrightarrow$模型思考$\longrightarrow$生成答案

    模型response查看方法见附录 TensorBorard使用方法。

  6. 关键训练曲线

    val-core/aime_2025/acc/mean@30:验证集的准确率。

    val-aux/num_turns/mean:验证时num_turns的值,每一次user或者assistant的输入都算一次num_turn。

    critic/rewards/mean:训练时单step的平均奖励。

    response_length/mean:训练时单step模型的平均响应长度。

    训练曲线查看方法见附录 TensorBorard使用方法。

附录

ToolAgent代码结构

ToolAgentLoop是agent RL训练中的核心类,是实现multi-turn交互中Agent reasoning$\longrightarrow$tool call循环的关键。

其中的关键状态处理包括_handle_generating_state()_handle_processing_tools_state()_handle_generating_state()负责调用大模型生成响应和检查是否需要调用工具,_handle_processing_tools_state()负责执行工具调用和将工具返回结果格式化并作为下一轮的输入。

AsyncLLMServerManager作为一个管理多个vLLMHttpServer的类,具有以下两个功能:

  • 负载均衡:在首轮请求时选择请求最少的Server实例发送;
  • 粘性会话:将多轮会话的补全请求发送到同一个Server实例,从而复用之前对话的缓存,提高硬件利用率。

ToolAgent异步流水

在ToolAgent异步流水中,每一个prompt的request都会遵循AsyncLLMServerManager的规则,在此基础上实现vLLM推理和Python CI工具调用的异步并行。

本样例rollout过程中,模型推理与外部工具执行的并行情况如下图所示。

TensorBoard使用方法

TensorBoard的基础使用方法参考前序工作,按流程配置后打开链接即可查看训练曲线和模型response。

本样例在使用TensorBoard时还需要注意以下几点:

  • 通过run_qwen3_4b_dapo_npu.sh脚本中的trainer.logger=['console','tensorboard']参数配置使用TensorBoard,默认已打开。
  • 通过run_qwen3_4b_dapo_npu.sh脚本中的trainer.log_val_generations=10参数配置查看每次验证时模型的response数,默认为10。
  • 本样例的TensorBoard日志输出路径为qwen3_tool_agent/verl/recipe/retool/tensorboard_log/retool
  • 训练曲线在TensorBoard打开页面的TIME SERIES页签,验证response文本在TEXT页签。

【免费下载链接】cann-recipes-train本项目针对LLM与多模态模型训练业务中的典型模型、加速算法,提供基于CANN平台的优化样例项目地址: https://gitcode.com/cann/cann-recipes-train

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/10 10:26:55

易语言大漠模块实战:BindWindow后台绑定模式选择与避坑指南

1. 大漠模块后台绑定的核心价值 后台绑定技术对于自动化操作来说就像给机器人装上了眼睛和手指。想象一下,你正在玩一款需要重复刷副本的游戏,每次都要机械地点鼠标、按键盘,不仅累还容易出错。而大漠模块的BindWindow函数就是帮你解决这个痛…

作者头像 李华
网站建设 2026/5/10 10:26:55

基于Neo4j与MCP协议,为AI智能体构建动态知识图谱大脑

1. 项目概述:为AI智能体构建一个动态知识大脑如果你正在使用Cursor、Claude Desktop这类AI编程助手,并且对它们能记住上下文、理解项目结构的能力感到惊喜,那么Graphiti MCP Server可能会让你对AI智能体的认知再上一个台阶。简单来说&#xf…

作者头像 李华
网站建设 2026/5/10 10:20:58

LibreDWG:打破CAD格式壁垒的跨平台开源解决方案

LibreDWG:打破CAD格式壁垒的跨平台开源解决方案 【免费下载链接】libredwg Official mirror of libredwg. With CI hooks and nightly releases. PRs ok 项目地址: https://gitcode.com/gh_mirrors/li/libredwg 在CAD设计领域,AutoCAD的DWG格式长…

作者头像 李华
网站建设 2026/5/10 10:19:41

突破硬件限制:AMD处理器性能优化完整实战指南

突破硬件限制:AMD处理器性能优化完整实战指南 【免费下载链接】SMUDebugTool A dedicated tool to help write/read various parameters of Ryzen-based systems, such as manual overclock, SMU, PCI, CPUID, MSR and Power Table. 项目地址: https://gitcode.co…

作者头像 李华
网站建设 2026/5/10 10:18:42

PlayCover多语言支持终极指南:让全球用户轻松使用iOS应用

PlayCover多语言支持终极指南:让全球用户轻松使用iOS应用 【免费下载链接】PlayCover Community fork of PlayCover 项目地址: https://gitcode.com/gh_mirrors/pl/PlayCover 你是否曾经想在Mac上运行自己喜欢的iOS应用,却发现界面全是英文&#…

作者头像 李华