可视化页面OpenWebUI和你的Ollama本地大模型交互
Ollama部署好后,如何给它安装上一个图形化页面呢?
这样的交互页面,太单调,太麻烦,每次启动都很烦。
而ollama官方提供了开源前端页面可与你的本地大模型进行交互—OpenWebUI。
Open WebUI,原名 Ollama WebUI,是一个开源项目,它提供了一个用户友好的Web界面,用于与大型语言模型(LLM)进行交互。这个界面可以完全离线运行,支持多种LLM运行器,包括Ollama和OpenAI兼容的API。
如果想安装OpenWebUI你需要先安装docker。
Docker官网在这,点击下载安装就好了。Docker Desktop: The #1 Containerization Tool for Developers | Docker
安装好后进入OpenWebUI: 🏡 Home | Open WebUI
随后你就可以找到适合你的安装方式,老样子复制到cmd等待就好了。
使用默认配置进行安装
• 如果 Ollama 在您的计算机上,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
• 如果 Ollama 位于其他服务器上,请使用以下命令:
要连接到另一台服务器上的 Ollama,请将 更改为服务器的 URL:OLLAMA_BASE_URL
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
o 要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
安装好后,打开你的浏览器,输入 localhost:3000即可进入OpenWebUI的页面。
在左上角你可以选择你已经安装好的模型。
随后你就可以使用可视化页面和你的本地大模型进行交互啦!
- 点赞
- 收藏
- 关注作者
评论(0)