qwen2-vl适配昇腾开源验证任务心得
【摘要】 qwen2-vl适配昇腾开源验证任务心得根据发布任务中的任务计划书了解任务内容,主要目的是在昇腾npu上完成qwen2-vl模型的训练推理,确保其在昇腾上能够正常运行。开发过程在qwen2-vl的github网址中,提到可用llama-factory跑qwen2-vl模型,明确目的后开始熟悉框架,搭建llama-factory框架所需环境,Llama-factory的github网址:htt...
qwen2-vl适配昇腾开源验证任务心得
根据发布任务中的任务计划书了解任务内容,主要目的是在昇腾npu上完成qwen2-vl模型的训练推理,确保其在昇腾上能够正常运行。
开发过程
在qwen2-vl的github网址中,提到可用llama-factory跑qwen2-vl模型,明确目的后开始熟悉框架,搭建llama-factory框架所需环境,Llama-factory的github网址:https://github.com/hiyouga/LLaMA-Factory,把Llama-factory项目从github上用git命令拉取下来。
NPU验证
(1)安装依赖包
NPU上需要CANN、torch_npu、pytorch
先安装CANN,参考:
https://www.hiascend.com/zh/developer/download/community/result?module=cann。
torch_npu的安装参考:https://github.com/Ascend/pytorch/blob/master/README.zh.md。
Llama_factory适配NPU还需要下载:pip install -e ".[torch-npu,metrics]"。
注:python环境为3.8的话,torch_npu、torch均下载2.1.0版本,transformer下载4.46.1版本,tokenizers下载0.20.3版本,否则会报错。
(2)训练、推理脚本:修改模型的权重文件路径
1、训练:examples/train_lora/qwen2vl_lora_sft.yaml
2、推理:example/inference/qwen2-vl.yaml
推理使用的模型文件路径是训练之后生成的新模型文件
1 验证截图
1.1验证思路
从github上拉取llama-factory仓库,使用modelscope下载模型放置model下,运行llama-factory中example/train_lora下的训练脚本,得到训练结果保存在saves下。
1.2 NPU训练验证结果
Qwen2-VL-7B-Instruct:
运行代码:
训练结果:
终端打印训练结果在终端并输出.json文件
生成train_result.json文件
1.3NPU推理验证结果
运行代码:
运行结果:
程序运行前:
程序运行后:
【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)