Open WebUI – 开源本地AI对话界面,支持Ollama和OpenAI API一键部署

随着本地大语言模型的兴起,如何更方便地管理和使用这些模型成为很多开发者关心的问题。Open WebUI(原Ollama WebUI)是一个开源的本地AI模型Web界面,让用户可以通过浏览器轻松使用Ollama、OpenAI API、Azure AI等多种AI后端。

项目由open-webui团队开发维护(GitHub: open-webui/open-webui),目前已获得13.1万颗Star,1.8万次Fork,是本地AI应用中下载量最高的开源项目之一。它不仅功能丰富,而且安装简单,对新手非常友好。

核心功能

多后端支持:Open WebUI支持连接多种AI后端服务。原生支持Ollama,可以直接调用本地部署的Llama、Qwen、Mistral等开源模型;同时支持OpenAI API、Azure AI、Cohere等云服务,一个界面管理所有AI模型。

对话界面:提供类似ChatGPT的友好对话界面,支持创建多个聊天会话、对话历史搜索、会话导入导出。界面响应速度快,用户体验优秀。

模型管理:内置模型管理功能,可以直接下载、更新、删除Ollama模型。无需命令行即可完成模型管理操作,对非技术用户非常友好。

Prompt模板:内置大量预置Prompt模板,覆盖写作、编程、翻译、分析等常见场景。也可以创建和管理自己的模板,方便复用。

图片识别:支持上传图片进行多模态对话,可以识别图片内容、解答图片相关问题。

安装部署

Docker一键部署(推荐)

最简单的安装方式是使用Docker Compose,一条命令即可运行:

docker run -d -p 3000:8080   -e OLLAMA_BASE_URL=http://localhost:11434   -v open-webui:/app/backend/data   --name open-webui   ghcr.io/open-webui/open-webui:main

安装完成后,打开浏览器访问 http://localhost:3000 即可使用。

手动安装

git clone https://github.com/open-webui/open-webui.git
cd open-webui
npm install
npm run build
cd backend
pip install -r requirements.txt
bash start.sh

手动安装需要Node.js和Python环境,适合有开发经验的用户。

配置与使用

连接Ollama:首次使用需要配置Ollama地址。如果Ollama在本机运行,默认地址是 http://localhost:11434。确保Ollama已启动并加载了模型。

下载模型:在界面左侧的模型管理页面,可以搜索和下载Ollama模型。常用模型如 llama3、mistral、qwen 等都可以直接下载。

连接云服务:在设置中添加OpenAI API Key或其他云服务的凭证,即可在同一界面中使用云端模型。

知识库功能:付费版支持上传文档构建知识库,实现RAG(检索增强生成)。开源版本的基础功能对大多数用户已经够用。

进阶使用

API访问:Open WebUI本身提供兼容OpenAI的API,可以绑定到http://localhost:3000,用任何支持OpenAI API的客户端连接使用。

用户管理:支持用户注册和权限管理,可以多人共用一个实例。

主题定制:支持自定义界面主题,可以调整颜色、字体等外观设置。

Docker Compose完整配置:对于生产环境,建议使用完整的docker-compose.yml配置,包含Ollama、WebUI和网络配置。

适用场景

对隐私有要求的用户可以完全本地运行,所有对话数据留在本地不外传;希望统一管理多个AI模型的开发者;想要更友好界面使用本地LLM的非技术用户;企业和团队需要内部AI助手但对数据安全有要求。

项目特点

Open WebUI是完全开源的项目,采用MIT协议。安装简单、界面美观、功能丰富,是目前最流行的本地AI Web界面之一。项目更新活跃,持续有新功能加入,社区也很活跃。


服务支持:如有兴趣不会搭建,可以联系微信:WRYD6166,开源项目搭建10-50元。

© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容