主题模式
Are you an LLM? You can read better optimized documentation at /ai/llm/open-webui.md for this page in Markdown format
2026 Open WebUI 搭建指南:给你的本地大模型穿上“ChatGPT”的皮肤
在 上一篇 中,我们成功让 VPS 跑起了 Ollama。但面对黑乎乎的终端窗口,体验总归不如 ChatGPT 网页版来得丝滑。
今天主角 Open WebUI(曾用名 Ollama WebUI),是目前开源社区公认的 “最强前端”。它不仅完美复刻了 ChatGPT 的界面,还自带了 RAG(本地知识库)、联网搜索 和 多模型竞技场 等杀手级功能。
🚀 为什么是 Open WebUI?
市面上的 AI 前端很多(如 LobeChat, FastGPT),但我首推 Open WebUI:
- 原生适配 Ollama:它就是为 Ollama 生的,模型标签、参数设置自动同步。
- 本地 RAG:直接把 PDF、Word 扔进对话框,它就能基于文档回答,无需额外配置向量数据库。
- 多模态支持:如果你跑了
llava等视觉模型,直接发图片给它就能看图说话。 - API 聚合:它不仅能连本地模型,还能顺便把你的 ChatGPT、Claude API 统统管起来。
🛠️ Docker 一键部署
Open WebUI 极其依赖 Docker。如果你的 VPS 还没装 Docker,请先运行 Kejilion 工具箱 选 1 安装环境。
场景一:Open WebUI 和 Ollama 在同一台机器
这是最常见的玩法。
bash
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main- 解释:
--add-host参数让容器能直接访问宿主机的 Ollama 端口(默认 11434)。 - 访问:打开浏览器输入
http://你的IP:3000,注册一个管理员账号(所有数据保存在本地,无需担心隐私)。
场景二:Ollama 在另一台机器(或 Windows/Mac)
如果你在 N100 小主机上跑 Ollama,想用云服务器做前端:
- 确保 Ollama 已配置
OLLAMA_HOST=0.0.0.0(参考上篇教程)。 - 启动 WebUI 时添加环境变量:
-e OLLAMA_BASE_URL=http://你的Ollama公网IP:11434
🧠 核心功能实战
1. 搭建本地知识库 (RAG)
这是 Open WebUI 最强悍的功能。
- 操作:在对话框左侧点击 “文档” -> “+” -> 上传你的 PDF 电子书或公司文档。
- 使用:在聊天时输入
#号,选择你刚才上传的文档集合。 - 效果:模型会优先根据文档内容回答,并标注引用来源。对于 2026 年的法律法规、技术文档查询,效率极高。
2. 开启联网搜索
想让本地模型知道“今天的新闻”?
- 进入 设置 (Settings) -> Web Search。
- 启用搜索,搜索引擎推荐选择
DuckDuckGo(免费)或SearXNG(私有化)。 - 现在的本地模型也能像 Perplexity 一样联网回答问题了。
3. 接入外部最强大脑 (GPT-4o / Claude 3.5)
本地模型算力有限,处理复杂逻辑(如写长代码)时还得靠云端大模型。Open WebUI 可以完美融合两者。
- 进入 设置 -> Connections -> OpenAI API。
- Base URL:填入你的 API 代理地址。
- API Key:填入密钥。
- 推荐方案: 如果你没有官方 Key,强烈推荐使用 银河录像局 (优惠码
ygjc) 的 ChatGPT Plus 合租 或 API 服务。把 Key 填进去,你就能在一个界面里,随意切换使用 免费的本地模型 处理隐私数据,付费的云端模型 处理高难度任务。
🔒 进阶:如何安全地暴露到公网?
直接开放 3000 端口非常危险。建议配合 Nginx 反向代理 并开启 HTTPS。 或者,使用我们在后续专题中会讲到的 Cloudflare Tunnel,无需公网 IP 也能安全远程访问。
🔗 下一步做什么?
现在你已经拥有了一个媲美 ChatGPT 的 AI 工作台。 但作为一个程序员,你肯定希望能直接在 VS Code 或 Cursor 里调用这些模型来写代码,对吧?