Ollama在Windows11部署与使用QWen2模型

举报
yd_297862320 发表于 2024/06/25 09:30:44 2024/06/25
【摘要】 0,Ollama介绍Ollama是一个开源项目,旨在让用户能够轻松地在其本地计算机上运行大型语言模型(LLM),是一个开源的大型语言模型服务。它支持各种LLM,包括Llama 3、Mistral和Gemma。提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。Ollama官网:https://...

0,Ollama介绍

Ollama是一个开源项目,旨在让用户能够轻松地在其本地计算机上运行大型语言模型(LLM),是一个开源的大型语言模型服务。它支持各种LLM,包括Llama 3、Mistral和Gemma。提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。

Ollama官网:https://ollama.com/

模型库:https://ollama.com/library

GIthub地址:https://github.com/ollama/ollama

1,下载与安装

访问Ollama官网,点击【Download】按钮进入下载页面,选择Windows版本下载

下载后直接运行安装包,进行安装

软件本身是没有图形化界面的,需要用终端运行,以Windows PowerShell为例,运行下面的指令进行测试

ollama list


其他常用命令:

ollama serve       启动ollama
ollama create      从模型文件创建模型
ollama show        显示模型信息
ollama run         运行模型
ollama pull        从注册表中拉取模型
ollama push        将模型推送到注册表
ollama list        列出模型
ollama cp          复制模型
ollama rm          删除模型
ollama help        获取有关任何命令的帮助信息

 2,更改模型保存路径

默认的模型保存路径位于C盘,(C:\Users<username>.ollama\models),可以通过设置OLLAMA_MODELS进行修改,然后重启终端,重启ollama服务(需要去状态栏里关掉程序)

setx OLLAMA_MODELS "D:\ollama_model"


我们可以去电脑环境变量中查看是否改变成功

3,下载大模型

访问模型库,找到需要的模型,比如我打算使用qwen2,点进去可以选择参数量,以及查看模型介绍

比如我要下载qwen2的0.5B参数模型,在终端运行

ollama run qwen2:0.5b

即可自动开始下载和加载

4,测试模型

直接在终端交流

至此,在Windows本地部署Ollama并运行qwen2模型已经完成,如果需要Web或者客户端支持,可以查看GitHub里的推荐

5,Ollama Python库

访问GitHub:Ollama Python library

有详细的教程,关于如何用Python调用本地的Ollama

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。