Open WebUI:开源本地 AI 交互平台,支持 Ollama 和 RAG

# Open WebUI:开源的本地 AI 交互平台

## 项目介绍

Open WebUI 是一款功能完善的开源 AI 交互平台,专为本地部署设计,完全支持离线运行。它可以连接 Ollama、OpenAI 兼容 API 等多种大语言模型后端,提供了类似 ChatGPT 的网页界面,让用户轻松部署自己的私有 AI 助手。目前该项目已获得超过 13 万星标,是本地部署 AI 的首选方案。

## 核心特色

– **完全开源**:代码透明,可自行审计和修改
– **离线运行**:所有数据存储在本地,保护隐私安全
– **多模型支持**:兼容 Ollama、OpenAI API、LM Studio 等多种后端
– **RAG 增强**:内置检索增强生成,支持知识库问答
– **插件扩展**:支持 Python 插件,可自定义功能
– **多人协作**:支持多用户和权限管理,适合团队使用
– **语音交互**:内置语音输入输出功能
– **图片生成**:集成 DALL-E、ComfyUI 等图片生成能力

## 安装步骤

### Docker 安装(推荐)

“`bash
# 安装 Ollama 后端(如果没有)
curl -fsSL https://ollama.com/install.sh | sh

# 拉取模型
ollama pull llama3.2

# 运行 Open WebUI
docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
-v open-webui:/app/backend/data \
–name open-webui \
–restart unless-stopped \
ghcr.io/open-webui/open-webui:main
“`

安装完成后,打开浏览器访问 http://localhost:3000 即可使用。

### pip 安装

“`bash
# 确保 Python 3.11+
python –version

# 安装
pip install open-webui

# 运行
open-webui serve
“`

## 核心功能使用

### 聊天对话

打开 WebUI 后,在左侧选择模型,然后在下方输入框输入问题即可。支持多轮对话,上下滚动可查看历史记录。

### 上传文档知识库

1. 点击左侧知识库图标
2. 上传 PDF、Word 等文档
3. 系统会自动提取内容建立索引
4. 提问时用 # 号引用知识库

### 语音交互

1. 点击右下角麦克风图标开启语音输入
2. 在设置中可选择语音引擎(支持 Whisper 本地识别)
3. 回复也可选择语音输出

### 插件安装

1. 进入设置 → 插件
2. 可从社区安装各种插件
3. 也支持自行开发 Python 插件

## 适用场景

1. **企业私有部署**:数据不离本地,满足合规要求
2. **开发者调试**:快速测试不同 LLM 模型效果
3. **家庭私有助手**:为家庭成员提供个性化 AI 服务
4. **教育科研**:用于 AI 教学和实验研究
5. **程序员提效**:内置代码解释、文档生成等工具

## 开源协议

MIT License

**服务支持**:如有兴趣不会搭建,可以联系微信:WRYD6166,开源项目搭建10-50元。

© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容