安装 DeepSeek R1 (DeepSeek LLM 7B)

举报
Nick Qiu 发表于 2025/02/07 16:53:15 2025/02/07
950 0 0
【摘要】 本文将指导您如何在 AutoDL 平台上申请机器并安装运行 DeepSeek R1 模型,适用于开发者和研究人员快速上手。 1. 申请机器 在 AutoDL 上申请机器首先,前往 AutoDL 市场 申请合适的计算资源,确保 GPU 配置满足模型运行需求。 启用学术加速为提高网络下载速度,建议开启学术加速功能:source /etc/network_turbo 2. 安装 OllamaOll...

本文将指导您如何在 AutoDL 平台上申请机器并安装运行 DeepSeek R1 模型,适用于开发者和研究人员快速上手。

1. 申请机器

在 AutoDL 上申请机器

首先,前往 AutoDL 市场 申请合适的计算资源,确保 GPU 配置满足模型运行需求。

启用学术加速

为提高网络下载速度,建议开启学术加速功能:

source /etc/network_turbo

2. 安装 Ollama

Ollama 是一款简化 LLM 模型部署与管理的工具,支持一键安装与快速运行。

安装 Ollama

在服务器终端执行以下命令进行安装:

# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 启动 Ollama 服务
ollama serve

# 后台启动(推荐)
nohup ollama serve > ollama.log 2>&1 &

3. 拉取并运行 DeepSeek-R1 模型

拉取模型

使用 Ollama 拉取 DeepSeek-R1 7B 模型:

ollama pull deepseek-r1:7b

查看已安装模型

确认模型是否成功下载:

ollama list

运行模型

启动模型服务:

ollama run deepseek-r1:7b

提示: DeepSeek 模型支持多个版本,包括 1.5B7B8B14B32B70B671B,您可根据硬件资源选择合适的模型。

4. 其他资源


以上步骤帮助您快速完成 DeepSeek R1 模型的安装与部署。如遇到问题,可参考相关文档或社区支持获取更多帮助。

【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

作者其他文章

评论(0

抱歉,系统识别当前为高风险访问,暂不支持该操作

    全部回复

    上滑加载中

    设置昵称

    在此一键设置昵称,即可参与社区互动!

    *长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

    *长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。