华为开发者空间 x DeepSeek,一文教你拥有自己的DeepSeek大模型,搭建Open WebUI
随着科技的不断进步,大模型技术在各领域展现出巨大的应用潜力。在表格处理和数据分析方面,借助大模型能够实现更高效、精准的操作。目前华为云有活动,可以免费申请使用云主机,这篇文章也是因此而生,申请了180个小时的云主机使用权限,然后搭建了自己的模型。
华为开发者空间介绍:
华为开发者空间,是为全球开发者打造的专属开发者空间,致力于为每位开发者提供一台云主机、一套开发工具和云上存储空间,汇聚昇腾、鸿蒙、鲲鹏、GaussDB、欧拉等华为各项根技术的开发工具资源,并提供配套案例指导开发者 从开发编码到应用调测,基于华为根技术生态高效便捷的知识学习、技术体验、应用创新。
一:登录云主机打开终端
华为开发者空间,是为全球开发者打造的专属开发者空间,致力于为每位开发者提供一台云主机、一套开发工具和云上存储空间,当普惠云资源遇见推理大模型,企业服务与开发效能的范式革命正在加速,华为云开发者空间:开箱即用的云端开发引擎。
华为于2024年HDC大会推出开发者空间服务,为开发者提供终身免费的云主机资源(2核CPU/4GB内存/5GB存储+180小时/年),支持Web端一键访问预置CodeArts IDE、JDK、Python等工具链,彻底解决本地环境配置繁琐问题。其创新设计聚焦三大能力:
- 场景化沙箱环境:分钟级创建鸿蒙、昇腾、鲲鹏等开发沙盒,预置Redis、FunctionGraph等实战案例模板,支持高校教学与企业实训;
- 端云协同数据管理:云主机配置与代码工程实时同步至云端,支持跨设备无缝续接开发,5GB存储空间保障资产安全中转;
- 生态资源集成:聚合沃土云创计划、开源激励及ModelArts AI服务入口,形成“学习-开发-部署-变现”闭环。
二:下载ollama模型文件并运行:
Ollama是一个前沿的平台,可以让你在本地机器上运行开源的大型语言模型。它简化了部署和管理这些模型的复杂性,对于研究人员、开发者以及任何想要尝试语言模型的人来说,都是一个不错的选择。Ollama提供了一个用户友好的界面,让你可以在MacOS和Linux(Windows支持即将到来)上本地运行大型语言模型(LLMs)。
Open WebUI是一个可扩展、功能丰富、用户友好的自托管WebUI,设计为完全离线运行。它支持多种大型语言模型(LLM)运行器,包括Ollama和OpenAI兼容的API。
2.1 在终端中输入命令:
wget https://sandbox-experiment-files.obs.cn-north-4.myhuaweicloud.com/deepseek/ollama-linux-amd64.tgz
2.2 解压安装包:
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
2.3 增加执行权限,创建Ollama用户:
sudo chmod +x /usr/bin/ollama
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama
2.4 创建ollama.service:
cat << EOF > /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
[Install]
WantedBy=default.target
EOF
2.5 配置完成后,设置开机自启并运行:
sudo systemctl daemon-reload # 重新加载systemd配置
sudo systemctl start ollama # 启动服务
sudo systemctl enable ollama # 设置开机自启
sudo systemctl status ollama # 查看服务状态
三:下载拉取 deepseek-r1并运行测试
3.1 在终端中输入命令:
wget https://sandbox-experiment-files.obs.cn-north-4.myhuaweicloud.com/deepseek/ollama_deepseek_r1_1.5b.tar.gz
3.2 解压并将模型文件放在ollama目录:
sudo tar -C /usr/share/ollama/.ollama/models -xzf ollama_deepseek_r1_1.5b.tar.gz
sudo systemctl daemon-reload # 重新加载systemd配置
sudo systemctl start ollama # 启动服务
sudo systemctl enable ollama # 设置开机自启
sudo systemctl status ollama # 查看服务状态
3.3 运行deepseek-r1:
ollama run deepseek-r1:1.5b
3.4 可以查看模型列表:
ollama list
四:模型调用与应用开发
如果说Ollama解决了模型运行的问题,那么Open WebUI就是连接用户和模型的桥梁。安装Docker的过程虽然稍显复杂,但每一步都有清晰的指引:
更新系统:确保软件包是最新版本,避免旧版本冲突:
sudo apt update && sudo apt upgrade -y
安装依赖与密钥:通过官方源安装Docker,确保安全性和稳定性:
sudo apt install apt-transport-https ca-certificates curl software-properties-common
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"
启动Docker服务:设置开机自启并验证状态:
sudo systemctl enable docker && sudo systemctl start docker
sudo systemctl status docker
拉取Open WebUI镜像时,不到3分钟就完成了下载,运行容器的命令虽然长,但每个参数都有明确注释:
sudo docker run -d --network host -v open-webui:/app/backend/data --name open-webui --restart always -e OLLAMA_BASE_URL=http://localhost:11434 ghcr.io/open-webui/open-webui:main
注意到–network host参数,让容器直接使用主机网络,避免了端口映射的麻烦。等待几分钟后,在浏览器输入localhost:8080,WebUI界面终于出现。
打开Open WebUI界面,创建管理员账号的过程简洁明了。登录后,可视化的模型管理界面让人眼前一亮:左侧是模型列表,右侧是交互窗口,支持Markdown格式的输入输出,甚至可以调整生成参数(如温度、最大 tokens数)。
从领取云主机到完成模型交互,实际耗时58分钟,完全符合教程中的预计时长,即使是技术小白,只要按照步骤操作,也能在一小时内搭建起自己的AI应用环境。打破了传统AI开发的高门槛,让技术创新不再局限于专业团队。
- 企业研发团队:可以快速验证大模型应用场景,无需前期硬件投入,降低试错成本。
- AI爱好者:零成本接触前沿技术,在实践中提升动手能力。
- 高校师生:作为教学案例或科研平台,支持课堂演示和算法调试。
- 点赞
- 收藏
- 关注作者
评论(0)