可视化页面OpenWebUI和你的Ollama本地大模型交互

举报
星霞云梦 发表于 2024/06/05 14:57:29 2024/06/05
【摘要】 部署好Ollama后如何用可视化页面和你的大模型进行交互呢?

Ollama部署好后,如何给它安装上一个图形化页面呢?


这样的交互页面,太单调,太麻烦,每次启动都很烦。

而ollama官方提供了开源前端页面可与你的本地大模型进行交互—OpenWebUI

Open WebUI,原名 Ollama WebUI,是一个开源项目,它提供了一个用户友好的Web界面,用于与大型语言模型(LLM)进行交互。这个界面可以完全离线运行,支持多种LLM运行器,包括Ollama和OpenAI兼容的API。

如果想安装OpenWebUI你需要先安装docker

Docker官网在这,点击下载安装就好了。Docker Desktop: The #1 Containerization Tool for Developers | Docker


安装好后进入OpenWebUI: 🏡 Home | Open WebUI

随后你就可以找到适合你的安装方式,老样子复制到cmd等待就好了。

使用默认配置进行安装

如果 Ollama 在您的计算机上,请使用以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如果 Ollama 位于其他服务器上,请使用以下命令:

要连接到另一台服务器上的 Ollama,请将 更改为服务器的 URLOLLAMA_BASE_URL

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

o 要运行支持 Nvidia GPU Open WebUI,请使用以下命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda


安装好后,打开你的浏览器,输入 localhost:3000即可进入OpenWebUI的页面。

在左上角你可以选择你已经安装好的模型。

随后你就可以使用可视化页面和你的本地大模型进行交互啦!

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。