自定义DeepSeek大模型
2025年无疑将是大模型技术飞速跃进的一年,其影响力势必跨越界限,深入渗透至更为广泛的行业领域。随着成本持续且显著地削减,整个大型语言模型(LLM)行业的版图正悄然酝酿着变革。这一变革不仅预示着更多人群将从中获得实实在在的利益,更使得LLM技术日益贴近民众生活,更加接地气,融入社会的每一个角落。
在这个意义非凡的历史转折点,立于巨人之巅,是否渴望孕育专属于你的大型语言模型(LLM)?给它赋予一个悦耳动听的名字,精心勾勒其角色定位,让它成为你智慧与创意的结晶,如同“亲儿子”般,共同成长。
本次分享不讲复杂的Distill蒸馏技术,而讲如何给大模型定义角色,起个名字,就如同你创造的一般。
本次分享以DeepSeek模型为例,进行阐述。操作很简单,人人都可以学会,直接上干货。
一、安装环境
关于环境安装,可以参考之前的文章: https://bbs.huaweicloud.com/blogs/446678
注:本教程中的所有操作步骤均在华为鲲鹏服务器上完成,同时,这些操作在其它类型的服务器上同样适用且流程完全一致。
二、构建自己的LLM
首先,通过命令 ollama list 查询本机的基础模型。如下所示:
NAME ID SIZE MODIFIED
llama3.2:1b baf6a787fdff 1.3 GB About a minute ago
deepseek-r1:1.5b a42b25d8c10a 1.1 GB 2 days ago
我们使用基础模型DeepSeek R1,构建自己的大模型。具体步骤如下所述。
注:使用其它基础模型构建,如llama、qwen等,步骤完全一致。
2-1、生成 DeepSeek 模型文件
在 Shell 中执行如下命令,生成 Modelfile 模型文件:
ollama show deepseek-r1:1.5b --modelfile > deepseek-r1.modelfile
2-2、编辑模型文件,定制自己的需求
需求如下:
- 定义身份;
- 起个名字;
通过 SYSTEM 指令实现如上需求。请把如下内容添加到 deepseek-r1.modelfile 文件中:
SYSTEM 你是由中华软件公司创造的通用大模型。你的姓名是小言。
添加位置,如下图所示:
注:如果你熟悉 dockerfile,那么 modelfile 和它原理是类似的。
2-3、构建大模型
使用刚才编辑的 deepseek-r1.modelfile 文件,构建自己的DeepSeek大模型。
- 执行如下命令进行构建,速度很快,一般秒级完成。
ollama create deepseek-r1-my:1.5b --file deepseek-r1.modelfile
输出内容如下:
transferring model data 100%
using existing layer sha256:aabd4debf0c8f08881923f2c25fc0fdeed24435271c2b3e92c4af36704040dbc
using existing layer sha256:369ca498f347f710d068cbb38bf0b8692dd3fa30f30ca2ff755e211c94768150
creating new layer sha256:c859dda4a9d77ad2468ee327cd94887c9f4c489049950b612df48ed8f5c630ab
using existing layer sha256:f4d24e9138dd4603380add165d2b0d970bef471fac194b436ebd50e6147c6588
creating new layer sha256:ee85258424655828b07a32f3fc3261197e787d987f07a01a7a62d5d2056b8a1b
writing manifest
success
- 通过命令 ollama list 查询我们的大模型
NAME ID SIZE MODIFIED
deepseek-r1-my:1.5b b3975b070879 1.1 GB 2 minutes ago
llama3.2:1b baf6a787fdff 1.3 GB 30 minutes ago
deepseek-r1:1.5b a42b25d8c10a 1.1 GB 2 days ago
注:比之前多了1个 deepseek-r1-my:1.5b,说明构建成功。
三、测试自己的LLM
我们向 DeepSeek基础模型 与 自定义的DeepSeek模型,问同一个问题,看看有何区别呢?
问题:你是谁
- 运行DeepSeek基础模型
ollama run deepseek-r1:1.5b
- 运行自定义的DeepSeek模型
ollama run deepseek-r1-my:1.5b
下图所示,两者回答的结果:
需求搞定!你也快来试试吧!
至此分享结束!
Enjoy It!
- 点赞
- 收藏
- 关注作者
评论(0)