可视化页面OpenWebUI和你的Ollama本地大模型交互
【摘要】 部署好Ollama后如何用可视化页面和你的大模型进行交互呢?
Ollama部署好后,如何给它安装上一个图形化页面呢?
这样的交互页面,太单调,太麻烦,每次启动都很烦。
而ollama官方提供了开源前端页面可与你的本地大模型进行交互—OpenWebUI。
Open WebUI,原名 Ollama WebUI,是一个开源项目,它提供了一个用户友好的Web界面,用于与大型语言模型(LLM)进行交互。这个界面可以完全离线运行,支持多种LLM运行器,包括Ollama和OpenAI兼容的API。
如果想安装OpenWebUI你需要先安装docker。
Docker官网在这,点击下载安装就好了。Docker Desktop: The #1 Containerization Tool for Developers | Docker
安装好后进入OpenWebUI: 🏡 Home | Open WebUI
随后你就可以找到适合你的安装方式,老样子复制到cmd等待就好了。
使用默认配置进行安装
• 如果 Ollama 在您的计算机上,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
• 如果 Ollama 位于其他服务器上,请使用以下命令:
要连接到另一台服务器上的 Ollama,请将 更改为服务器的 URL:OLLAMA_BASE_URL
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
o 要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
安装好后,打开你的浏览器,输入 localhost:3000即可进入OpenWebUI的页面。
在左上角你可以选择你已经安装好的模型。
随后你就可以使用可视化页面和你的本地大模型进行交互啦!
【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)