OLMo在华为云昇腾上实现模型推理,并部署到华为昇腾NPU的详细步骤

举报
阳煦~ 发表于 2024/12/03 11:41:21 2024/12/03
【摘要】 OLMo(Open Language Model)是由Allen AI(AI2,艾伦人工智能研究所)开发的一个完全开源开放的大型语言模型(LLM)框架,设计初衷是为了通过开放研究,促进学术界和研究人员共同研究语言模型的科学。OLMo框架提供了一系列的资源,包括数据、训练代码、模型权重以及评估工具,以便研究人员能够更深入地理解和改进语言模型。

OLMo適配昇騰云

OLMo(Open Language Model)是由Allen AI(AI2,艾伦人工智能研究所)开发的一个完全开源开放的大型语言模型(LLM)框架,设计初衷是为了通过开放研究,促进学术界和研究人员共同研究语言模型的科学。OLMo框架提供了一系列的资源,包括数据、训练代码、模型权重以及评估工具,以便研究人员能够更深入地理解和改进语言模型。
OLMo仓库地址

目录

一、华为云ECS验证

1.购买华为云虚拟私有云VPC和弹性云服务器ECS

详解教程参考链接:创建华为云弹性云服务器ECS流程
已有忽略

2.环境搭建

python版本为3.9,

#環境配置
git clone https://github.com/allenai/OLMo.git
cd OLMo
pip install -e .[all]

使用ModelScope获取模型参数
通过ModelScope下载到当前文件夹下

pip install modelscope
modelscope download --model LLM-Research/OLMo-7B  --local_dir OLMo-7B

3.准备测试

修改代碼:
OLMo-7B/olmo/util.py, line 718,

def save_hf_dataset_to_disk(
    dataset: datasets.DatasetDict | datasets.Dataset,
    hf_path: str,
    name: Optional[str],
    split: str,
    datasets_dir: PathOrStr,
):

修改為:

#添加下行代碼
from tpying import Union
def save_hf_dataset_to_disk(
    #修改下行代碼
    dataset: Union[datasets.DatasetDict, datasets.Dataset],
    hf_path: str,
    name: Optional[str],
    split: str,
    datasets_dir: PathOrStr,
):

新建测试文件run.py,复制下面代码,使用python run.py准备测试

from transformers import pipeline
olmo_pipe = pipeline("text-generation", model="OLMo-7B")
print(olmo_pipe("Language modeling is"))

生成结果(略有差异):

4.构建本地示例应用

4.1 查看弹性公网IP和设置开放端口

查看后得到用于登录Web应用界面的IP地址。这里为:http://1.94.197.211:7860/

4.2 使用gradio构建Web应用界面
pip install gradio
4.3 新建gradio_run.py,代码如下
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
import gradio as gr
device = "cuda" if torch.cuda.is_available() else "cpu"
tokenizer = AutoTokenizer.from_pretrained("OLMo-7B", trust_remote_code=True)  
olmo = AutoModelForCausalLM.from_pretrained(
    "OLMo-7B",
    low_cpu_mem_usage=True,
    trust_remote_code=True
).to(device).eval()

def olmo_inference(text):
    inputs = tokenizer([text], return_tensors='pt', return_token_type_ids=False)
    with torch.no_grad():
        response = olmo.generate(**inputs, max_new_tokens=250, do_sample=True, top_k=50, top_p=0.95)
        return tokenizer.batch_decode(response, skip_special_tokens=True)[0]
    return "error"

# 创建 Gradio 接口
iface = gr.Interface(
    fn=olmo_inference,
    inputs="text",
    outputs="text",
    title="调用olmo模型",
    description="输入文本,模型调用進行文本補全。"
)

# 启动服务
iface.launch(server_name="0.0.0.0", server_port=7860)


nohup 运行gradio_run.py,并在浏览器转到http://1.94.197.211:7860/打开服务页面,可以输入以下文本让模型推理(注意:推理时间较长,请耐心等待)

Language modeling is

运行结果:
image.png

二、部署到昇腾NPU

昇腾环境:
芯片类型:昇腾910B3
CANN版本:CANN 7.0.1.5
驱动版本:23.0.6
操作系统:Huawei Cloud EulerOS 2.0

1.查看NPU硬件信息

npu-smi info

image.png
如果 Health 状态为 OK,说明 NPU 和 CANN 正常运行。

2.NPU环境下运行代码

代码拉取:

git clone https://github.com/allenai/OLMo.git

模型参数下载

pip install modelscope
modelscope download --model LLM-Research/OLMo-7B  --local_dir OLMo-7B

环境配置:创建python==3.10环境并激活

conda create -n py310 python=3.10
conda activate py310

进入OLMo文件路径下,

cd OLMo
pip install -e .[all]

新建run.py,

vim run.py

添加下边代码

import torch 
import torch_npu
from torch_npu.contrib import transfer_to_npu
from transformers import AutoModelForCausalLM, AutoTokenizer
olmo = AutoModelForCausalLM.from_pretrained("OLMo-7B")
tokenizer = AutoTokenizer.from_pretrained("OLMo-7B")
message = ["Language modeling is "]
inputs = tokenizer(message, return_tensors='pt', return_token_type_ids=False)
# optional verifying cuda
inputs = {k: v.to('cuda') for k,v in inputs.items()}
olmo = olmo.to('cuda')
response = olmo.generate(**inputs, max_new_tokens=250, do_sample=True, top_k=50, top_p=0.95)
print(tokenizer.batch_decode(response, skip_special_tokens=True)[0])

2.1 下载torch_npu插件
pip install torch_npu

运行代码:

python run.py

结果展示:

npu現存占用如下:

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。