安装 DeepSeek R1 (DeepSeek LLM 7B)
【摘要】 本文将指导您如何在 AutoDL 平台上申请机器并安装运行 DeepSeek R1 模型,适用于开发者和研究人员快速上手。 1. 申请机器 在 AutoDL 上申请机器首先,前往 AutoDL 市场 申请合适的计算资源,确保 GPU 配置满足模型运行需求。 启用学术加速为提高网络下载速度,建议开启学术加速功能:source /etc/network_turbo 2. 安装 OllamaOll...
本文将指导您如何在 AutoDL 平台上申请机器并安装运行 DeepSeek R1 模型,适用于开发者和研究人员快速上手。
1. 申请机器
在 AutoDL 上申请机器
首先,前往 AutoDL 市场 申请合适的计算资源,确保 GPU 配置满足模型运行需求。
启用学术加速
为提高网络下载速度,建议开启学术加速功能:
source /etc/network_turbo
2. 安装 Ollama
Ollama 是一款简化 LLM 模型部署与管理的工具,支持一键安装与快速运行。
安装 Ollama
在服务器终端执行以下命令进行安装:
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 启动 Ollama 服务
ollama serve
# 后台启动(推荐)
nohup ollama serve > ollama.log 2>&1 &
3. 拉取并运行 DeepSeek-R1 模型
拉取模型
使用 Ollama 拉取 DeepSeek-R1 7B 模型:
ollama pull deepseek-r1:7b
查看已安装模型
确认模型是否成功下载:
ollama list
运行模型
启动模型服务:
ollama run deepseek-r1:7b
提示: DeepSeek 模型支持多个版本,包括
1.5B
、7B
、8B
、14B
、32B
、70B
、671B
,您可根据硬件资源选择合适的模型。
4. 其他资源
- Ollama 官方文档与源码: GitHub - Ollama
- DeepSeek 模型详情: Ollama 官方网站
以上步骤帮助您快速完成 DeepSeek R1 模型的安装与部署。如遇到问题,可参考相关文档或社区支持获取更多帮助。
【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)