华为云之在Linux系统下DeepSeek快速安装部署全流程【玩转华为云】
华为云之在Linux系统下DeepSeek快速安装部署全流程【玩转华为云】
一、本次实践介绍
1.1 实践环境简介
本次实践依托华为 KooLabs 云实验平台展开,基于华为云 ECS 弹性云服务器搭建运行环境。在模型选择上,采用 deepseek:1.5b 版本,该版本的权重文件大小约为 1.1G,便于快速下载。同时,此版本在 CPU 环境下部署运行时,其流畅性能能够满足个人体验使用需求。
1.2 本次实践目标
• 熟悉华为云 ECS 服务器的相关知识与操作。
• 熟练运用 Linux 系统环境。
• 掌握通过 Ollama 来部署 DeepSeek R1 模型的方法
二、 相关服务介绍
2.1 华为云ECS云服务器介绍
华为云弹性云服务器(ECS)作为一种云上计算服务,支持用户随时自助获取,且具备弹性伸缩能力。它能为用户打造出安全、可靠的应用环境,保障应用稳定运行。同时,其灵活、高效的特性,能很好地满足不同场景下的使用需求,为用户提供优质的服务体验。
null
2.2 DeepSeek介绍
DeepSeek是由深度求索(DeepSeek)公司研发的大规模预训练语言模型,专注于通用人工智能领域的技术突破。该系列模型以高效训练和强大的自然语言处理能力著称,涵盖文本生成、代码理解、数学推理等多项任务,支持中英文及多语言场景应用。
三、购买ECS云服务器
3.1 登录华为云
查看华为云实验账号信息:进入实验环境后,我们在左侧的实验手册中可以看到华为云实验账号。
null
进入【实验操作桌面】,打开Chrome浏览器,首次可自动登录并进入华为云控制台页面。
null
登录完毕后,我们进入华为云控制台管理首页。
null
3.2 购买弹性云服务器
在华为云控制台中,我们点击弹性云服务器ECS【创建】选项,进入ECS购买界面。
null
购买的ECS实力,可参考以下配置:
• 计费模式:按需计费
• 区域:北京四,可用随机
• 实例规格:CPU架构选择X86架构,规格为c7.xlarge.2
• 系统盘:通用型SSD,40G
• 操作系统:使用镜像为openEuler 22.03 64bit(10GiB)
• 网络配置:VPC均保持默认即可
• 安全组:默认
• 公网访问:弹性公网-购买,全动态BGP,按流量计费,100Mbit/带宽;
• 云服务器管理:服务器名称(ecs-cent,),服务器密码Huawei1234%
• 其余配置默认即可,配置完毕后,可参考购买页以检查配置是否正确。
null
3.3 查看弹性云服务器状态
返回弹性云服务器列表后,可以看到我们购买的弹性云服务器ECS状态正常。
null
3.4 登录ECS
我们通过实验桌面的Xfce工具进行SSH连接ECS,将以下命令的EIP替换我们实际ECS的弹性公网IP地址。如果无法登录,需要修改安全组配置,放行22端口。
ssh root@*EIP*
null
3.5 检查系统环境
检查操作系统版本和内核版本,如下所示:
[root@ecs-cent ~]# cat /etc/os-release
NAME="openEuler"
VERSION="22.03 LTS"
ID="openEuler"
VERSION_ID="22.03"
PRETTY_NAME="openEuler 22.03 LTS"
ANSI_COLOR="0;31"
[root@ecs-cent ~]# uname -r
5.10.0-60.139.0.166.oe2203.x86_64
四、安装ollama工具
4.1 ollama介绍
Ollama 是一个开源工具,专注于简化大型语言模型(LLM)的本地部署与运行。它支持用户通过命令行快速下载、管理和运行多种开源模型(如 Llama 2、Mistral、Gemma 等),无需复杂配置即可在本地设备上体验 AI 交互。
4.2 下载ollama安装包
方案一:使用以下一键安装脚本进行安装,有可能因为网络等原因安装失败时,可重新执行命令安装。
curl -fsSL https://ollama.com/install.sh | sh
方案二:下载ollama安装包进行安装,本次实践使用此方式。
wget https://sandbox-experiment-files.obs.cn-north-4.myhuaweicloud.com/deepseek/ollama-linux-amd64.tgz
null
• 解压ollama安装包,执行以下命令:
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
4.3 添加执行权限
设置ollama执行权限和创建ollama用户
sudo chmod +x /usr/bin/ollama
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama
null
4.4 配置ollama服务开机自启
在/etc/systemd/system/ollama.service文件中,编辑服务配置文件。
cat << EOF > /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
[Install]
WantedBy=default.target
EOF
执行以下命令,启动ollama服务并设置开机自启。
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama
检查ollama服务状态,确保正常启动。
sudo systemctl status ollama
null
4.5 检查安装版本
检查ollama安装版本,如下所示:
ollama -v
null
五、下载并运行DeepSeek大模型
5.1 下载模型文件
可使用ollama命令直接拉取deepseek-r1:1.5b模型,速度可能比较慢。我们采用后面的下载模型文件方法,从华为云OBS中下载模型文件。
ollama pull deepseek-r1:1.5b
在华为云OBS下载ollama模型文件deepseek-r1:1.5b,如下所示:
wget https://sandbox-experiment-files.obs.cn-north-4.myhuaweicloud.com/deepseek/ollama_deepseek_r1_1.5b.tar.gz
null
• 进行解压缩操作:
sudo tar -C /usr/share/ollama/.ollama/models -xzf ollama_deepseek_r1_1.5b.tar.gz
• 将解压后的ollama模型文件放在ollama目录:
cd /usr/share/ollama/.ollama/models
mv ./deepseek/sha256* ./blobs
mkdir -p ./manifests/registry.ollama.ai/library/deepseek-r1
mv ./deepseek/1.5b ./manifests/registry.ollama.ai/library/deepseek-r1
rm -rf deepseek/
5.2 查看模型列表
• 查看模型列表:
ollama list
null
5.3 运行DeepSeek模型
• 执行以下命令,运行deepseek-r1:1.5b
ollama run deepseek-r1:1.5b
null
通过对话测试,我们可以确认 DeepSeek-R1:1.5B 模型是否能正常运行并提供流畅的交互体验。
null
六、实践总结
本次实践通过华为云平台,在Linux系统下完成了DeepSeek模型的快速安装与部署,整个流程操作简便,步骤清晰。实践文档指导详尽,逻辑严谨,极大地降低了部署门槛,提升了学习效率。对于初学者和AI爱好者而言,是一次非常友好且有价值的实战体验。华为云提供的高效稳定的运行环境,为模型部署和后续学习研究提供了有力支持。
- 点赞
- 收藏
- 关注作者
评论(0)