本地部署大模型,用ollama实现大模型在你的电脑上运行

举报
星霞云梦 发表于 2024/06/05 11:03:16 2024/06/05
【摘要】 用Ollama本地部署开源大语言模型

一般大模型的使用流程

用户需要将待处理的数据上传到云端。这可能包括文本、图片、音频等不同类型的数据。在上传数据之前,可能需要进行格式转换或预处理,以确保数据与大模型的输入格式兼容。大模型处理完成后,用户可以在本地计算机或服务器上直接获取处理结果。用户可以对结果进行进一步的分析和处理,以满足具体应用需求。简而言之,就是我们将问题从终端(手机、电脑等)上传到云端的服务器,待服务器处理后再把结果反馈到我们手里。

本地部署大模型

用户需要准备待处理的数据,并将其存储在本地。这可能包括文本、图片、音频等不同类型的数据。在处理数据之前,可能需要进行格式转换或预处理,以确保数据与大模型的输入格式兼容。大模型处理完成后,用户可以在本地计算机或服务器上直接获取处理结果。用户可以对结果进行进一步的分析和处理,以满足具体应用需求。简而言之,就是我们省去了上传和接收的步骤,数据在我们本地处理即可得到结果。

本地部署的步骤

本地部署LLM(大模型)有很多途径方法,我这边用目前公认最好用的ollama作为示范,如果你不想用ollama当然还有许多其他途径,比如LM Studio等等。

首先我们进去ollama的官网,网址在这:Ollama

随后点击Download下载

下载好后点击安装包进行安装即可。需要注意的是,安装好后是不会在你的电脑上显示图标的,你也无法打开图形化页面,那么下面我们要如何安装自己想要的大语言模型呢?

点击右上角的Models

随后你就可以看到很多的开源大模型。Ollama为你提供了丰富的开源大模型资源,有的大模型甚至开源了不过几个小时,你就可以在Ollama上找到。

我这边比较推荐的两个大模型分别是llama3(来自meta)和qwen(阿里的千问),llama3是目前公认的最强开源大模型,缺点就在他更多的适配英文,中文效果不太好,而qwen则对中文的逻辑性要更好。

随后我们点开喜欢的大模型。

可以看到两个选择框,左边的能够选择大模型的规格,右边则是安装的指令。

我们点开左边的方框,下拉能够看到很多的大模型,在这里b是指billion,中文意思是十亿,用来表示模型参数的数量级。在人工智能领域,模型的大小通常以其参数的数量来衡量,而参数的数量可以非常庞大。当然,参数数量越大对硬盘和性能的需求就越大。比如我的3060显卡跑8B的llama3就一般能占用到80%。所以若想本地使用大模型,性能的需求还是很重要的。

选择好大模型后,你就可以安装了。

复制右边方框内的指令。

打开你的cmd

粘贴进去,

他就会自动为你下载。

随后你就可以在这个页面和你的大模型进行交互啦。

如果你下次还想进去这个界面,同样的还是打开cmd运行这个指令。

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。