大模型部署手记(12)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+text-gen+中文对话

举报
张辉 发表于 2023/10/07 22:29:24 2023/10/07
【摘要】 大模型部署手记(12)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+text-gen+中文对话

1.简介:

组织机构:Meta(Facebook)

代码仓:https://github.com/facebookresearch/llama

模型:chinese-alpaca-2-7b-hf

下载:使用百度网盘下载

硬件环境:暗影精灵7Plus
Windows版本:Windows 11家庭中文版 Insider Preview 22H2
内存 32G
GPU显卡:Nvidia GTX 3080 Laptop (16G)

的README.md可以看出,中文LLaMA&Alpaca大模型支持不同的LLaMA生态:

这里面有
  • transformers
  • llama.cpp
  • text-generation-webui:
  • LangChain
  • privateGPT
  • vLLM
等多种。

在这里也介绍了不同环境上的部署方式:

2.代码和模型下载:


d:
cd \
git clone https://github.com/oobabooga/text-generation-webui

https://bbs.huaweicloud.com/blogs/412543下载的完整版权重目录 D:\llama.cpp\models2\chinese-alpaca-2-7b-hf 复制到 D:\text-generation-webui\models 目录下:

3.安装依赖



创建conda环境
conda create -n textgen python=3.10.9
conda activate textgen



cd text-generation-webui
安装pytorch
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117


安装依赖:
pip install -r requirements.txt



4.部署验证

加载模型并启动:
python server.py --model chinese-alpaca-2-7b-hf --chat


打开地址:


可以参考下面的指引操作:
在打开的网页中,依次选择Chat setting->Instruction template,在Instruction template中下拉选择Llama-v2,并将Context输入框中的Answer the questions.提示语替换为You are a helpful assistant. 你是一个乐于助人的助手。,最后回到Text generation界面,在input输入框中输入你的指令,即可与chinese-alpaca-2对话了。

不过张小白点击Model,发现这个模型已经加载上去了!

回到Chat屏幕,可以跟AI对话:

这个部署起来还是非常快的。
【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。