仅四步!在华为开发者空间快速部署DeepSeek

举报
开发者空间小蜜蜂 发表于 2025/02/10 11:26:57 2025/02/10
2.3k+ 1 5
【摘要】 本文将详细介绍如何在华为开发者空间云主机部署 DeepSeek 蒸馏模型,主要包括 Ollama 的介绍与安装、如何通过 Ollama 部署 DeepSeek、在 ChatBox 中使用 DeepSeek 以及在CodeArts IDE中集成 DeepSeek 等。

本文将详细介绍如何在华为开发者空间主机部署 DeepSeek 蒸馏模型,主要包括 Ollama 的介绍与安装、如何通过 Ollama 部署 DeepSeek、在 ChatBox 中使用 DeepSeek 以及在CodeArts IDE中集成 DeepSeek

通过实际操作,帮助开发者熟悉如何通过云主机部署DeepSeek,搭建自己的专属服务,不需要再面对每次打开DeepSeek都会再屏幕上弹出“服务器繁忙”的问题只需要4步即可轻松完成部署

一、部署流程

说明:

  1. 云主机安装Ollama
  2. 使用Ollama部署DeepSeek
  3. ChatBox集成DeepSeek
  4. CodeArts IDE集成DeepSeek

二、云主机部署DeepSeek步骤

1、安装Ollama

Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。

在云主机桌面右键选择“Open Terminal Here”,打开命令终端窗口。

执行安装命令如下:

curl -fsSL https://ollama.com/install.sh | sh

2、部署DeepSeek

接下来可以借助 Ollama 工具来部署 DeepSeek 大模型,部署 deepseek-r1:1.5b 版本,执行命令:

ollama run deepseek-r1:1.5b

部署完成后,我们就可以与 Deepseek 大模型进行对话了:

3、安装ChatBox

通过 Ollama 部署 DeepSeek 模型之后,我们就可以在终端与其进行对话了。由于是在终端里面,交互体验相对较为简洁和不够直观,长时间的对话可能会让操作变得不够流畅。为了更方便地与模型进行对话,我们可以使用可视化的聊天项目,例如 Open WebUI、ChatBox 等。通过这些工具,我们能够获得更加直观和流畅的交互体验。这里我们通过 ChatBox 使用 DeepSeek。

在云主机使用火狐浏览器下载ChatBox:  https://chatboxai.app/zh 。进入Chatboxai通过“免费下载“按钮下载软件安装包并进行安装。

查看个人领取的云主机CPU架构类型,根据具体的类型执行不同的安装步骤

云主机CPU架构为X86请参考以下步骤:

下载64-bit类型镜像文件

22222.png

打开下载文件所在目录,右键打开终端命令窗口,执行以下命令给文件赋予权限:

sudo chmod +x Chatbox-1.9.8-x86_64.AppImage

安装libfuse.so.2库:

sudo apt install libfuse2

运行文件:

./Chatbox-1.9.8-x86_64.AppImage

云主机CPU架构为ARM请参考以下步骤:

下载ARM类型镜像文件:

2222222.png

打开下载文件所在目录,右键打开终端命令窗口,执行以下命令给文件赋予权限:

sudo chmod +x Chatbox-1.9.8-arm64.AppImage

安装zlib 库:

sudo apt update
sudo apt install zlib1g zlib1g-dev

安装 zlib 后,使用 find 命令查找 libz.so 文件:

sudo find / -name libz.so*

设置 LD_LIBRARY_PATH:

export LD_LIBRARY_PATH=/usr/lib/aarch64-linux-gnu:$LD_LIBRARY_PATH

安装libfuse.so.2库:

sudo apt install libfuse2

运行文件,运行应用时禁用沙盒:

./Chatbox-1.9.8-arm64.AppImage --no-sandbox

根据不同CPU配置,完成配置后,打开Chatbox。首次打开我们会看到以下选项,选择 “使用自己的API Key或本地模型(Use My Own API Key/Local Model)”,然后在新的标签页里选择 Ollama API。

可以模型列表里看到通过 Ollama 所部署的大模型,选择 deepseek-r1:1.5b,然后点击保存。

保存之后,我们就可以在对话框里与 DeepSeek 大模型进行对话了。

4、CodeArts IDE集成DeepSeek

Continue 是一款领先的开源 AI 代码助手,我们可以将任意模型和上下文连接起来。在CodeArts IDE中集成DeepSeek后,开发者可以用来实现代码补全、生成与解释,优化代码质量,错误检查,知识查询与资料推荐,整合开发流程,极大提升编码效率与学习体验。

安装Continue插件。在云主机桌面打开CodeArts IDE,点击右侧“扩展”,输入continue搜索插件并安装。

打开Continue插件,点击“Add Chat model”添加模型。

接下来,Provider 选项选择 Ollama,Model 选项选择 Autodetect,然后点击 Connect,这样就可以自动选择我们刚才所部署的 deepseek-r1:1.5b 模型了。

至此DeepSeek就安装在您的云主机中,点击链接,前往华为开发者空间体验。

【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

作者其他文章

评论(1

抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。