华为云之在Linux系统下DeepSeek快速安装部署全流程【玩转华为云】

举报
江湖有缘 发表于 2025/07/25 00:49:48 2025/07/25
【摘要】 华为云之在Linux系统下DeepSeek快速安装部署全流程【玩转华为云】

华为云之在Linux系统下DeepSeek快速安装部署全流程【玩转华为云】

一、本次实践介绍

1.1 实践环境简介

本次实践依托华为 KooLabs 云实验平台展开,基于华为云 ECS 弹性云服务器搭建运行环境。在模型选择上,采用 deepseek:1.5b 版本,该版本的权重文件大小约为 1.1G,便于快速下载。同时,此版本在 CPU 环境下部署运行时,其流畅性能能够满足个人体验使用需求。

1.2 本次实践目标

熟悉华为云 ECS 服务器的相关知识与操作。​

熟练运用 Linux 系统环境。​

掌握通过 Ollama 来部署 DeepSeek R1 模型的方法

二、 相关服务介绍

2.1 华为云ECS云服务器介绍

华为云弹性云服务器(ECS)作为一种云上计算服务,支持用户随时自助获取,且具备弹性伸缩能力。它能为用户打造出安全、可靠的应用环境,保障应用稳定运行。同时,其灵活、高效的特性,能很好地满足不同场景下的使用需求,为用户提供优质的服务体验。

null

2.2 DeepSeek介绍

DeepSeek是由深度求索(DeepSeek)公司研发的大规模预训练语言模型,专注于通用人工智能领域的技术突破。该系列模型以高效训练和强大的自然语言处理能力著称,涵盖文本生成、代码理解、数学推理等多项任务,支持中英文及多语言场景应用。

三、购买ECS云服务器

3.1 登录华为云

查看华为云实验账号信息:进入实验环境后,我们在左侧的实验手册中可以看到华为云实验账号。

null

进入【实验操作桌面】,打开Chrome浏览器,首次可自动登录并进入华为云控制台页面。

null

登录完毕后,我们进入华为云控制台管理首页。

null

3.2 购买弹性云服务器

在华为云控制台中,我们点击弹性云服务器ECS【创建】选项,进入ECS购买界面。

null

购买的ECS实力,可参考以下配置:

计费模式:按需计费

区域:北京四,可用随机

实例规格:CPU架构选择X86架构,规格为c7.xlarge.2

系统盘:通用型SSD,40G

操作系统:使用镜像为openEuler 22.03 64bit(10GiB)

网络配置:VPC均保持默认即可

安全组:默认

公网访问:弹性公网-购买,全动态BGP,按流量计费,100Mbit/带宽;

云服务器管理:服务器名称(ecs-cent,),服务器密码Huawei1234%

其余配置默认即可,配置完毕后,可参考购买页以检查配置是否正确。

null

3.3 查看弹性云服务器状态

返回弹性云服务器列表后,可以看到我们购买的弹性云服务器ECS状态正常。

null

3.4 登录ECS

我们通过实验桌面的Xfce工具进行SSH连接ECS,将以下命令的EIP替换我们实际ECS的弹性公网IP地址。如果无法登录,需要修改安全组配置,放行22端口。

ssh root@*EIP*

null

3.5 检查系统环境

检查操作系统版本和内核版本,如下所示:

[root@ecs-cent ~]# cat /etc/os-release
NAME="openEuler"
VERSION="22.03 LTS"
ID="openEuler"
VERSION_ID="22.03"
PRETTY_NAME="openEuler 22.03 LTS"
ANSI_COLOR="0;31"

[root@ecs-cent ~]# uname -r
5.10.0-60.139.0.166.oe2203.x86_64

四、安装ollama工具

4.1 ollama介绍

Ollama 是一个开源工具,专注于简化大型语言模型(LLM)的本地部署与运行。它支持用户通过命令行快速下载、管理和运行多种开源模型(如 Llama 2、Mistral、Gemma 等),无需复杂配置即可在本地设备上体验 AI 交互。

4.2 下载ollama安装包

方案一:使用以下一键安装脚本进行安装,有可能因为网络等原因安装失败时,可重新执行命令安装。

curl -fsSL https://ollama.com/install.sh | sh

方案二:下载ollama安装包进行安装,本次实践使用此方式。

wget https://sandbox-experiment-files.obs.cn-north-4.myhuaweicloud.com/deepseek/ollama-linux-amd64.tgz

null

解压ollama安装包,执行以下命令:

sudo tar -C /usr -xzf ollama-linux-amd64.tgz

4.3 添加执行权限

设置ollama执行权限和创建ollama用户

sudo chmod +x /usr/bin/ollama
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

null

4.4 配置ollama服务开机自启

在/etc/systemd/system/ollama.service文件中,编辑服务配置文件。

cat << EOF > /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

[Install]
WantedBy=default.target
EOF

执行以下命令,启动ollama服务并设置开机自启。

sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

检查ollama服务状态,确保正常启动。

sudo systemctl status ollama

null

4.5 检查安装版本

检查ollama安装版本,如下所示:

ollama -v

null

五、下载并运行DeepSeek大模型

5.1 下载模型文件

可使用ollama命令直接拉取deepseek-r1:1.5b模型,速度可能比较慢。我们采用后面的下载模型文件方法,从华为云OBS中下载模型文件。

ollama pull deepseek-r1:1.5b

在华为云OBS下载ollama模型文件deepseek-r1:1.5b,如下所示:

wget https://sandbox-experiment-files.obs.cn-north-4.myhuaweicloud.com/deepseek/ollama_deepseek_r1_1.5b.tar.gz

null

进行解压缩操作:

sudo tar -C /usr/share/ollama/.ollama/models -xzf ollama_deepseek_r1_1.5b.tar.gz

将解压后的ollama模型文件放在ollama目录:

cd /usr/share/ollama/.ollama/models
mv ./deepseek/sha256* ./blobs
mkdir -p ./manifests/registry.ollama.ai/library/deepseek-r1
mv ./deepseek/1.5b ./manifests/registry.ollama.ai/library/deepseek-r1
rm -rf deepseek/

5.2 查看模型列表

查看模型列表:

ollama list

null

5.3 运行DeepSeek模型

执行以下命令,运行deepseek-r1:1.5b

ollama run deepseek-r1:1.5b

null

通过对话测试,我们可以确认 DeepSeek-R1:1.5B 模型是否能正常运行并提供流畅的交互体验。

null

六、实践总结

本次实践通过华为云平台,在Linux系统下完成了DeepSeek模型的快速安装与部署,整个流程操作简便,步骤清晰。实践文档指导详尽,逻辑严谨,极大地降低了部署门槛,提升了学习效率。对于初学者和AI爱好者而言,是一次非常友好且有价值的实战体验。华为云提供的高效稳定的运行环境,为模型部署和后续学习研究提供了有力支持。


【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。