项目介绍
FlowiseAI/Flowise 是一款开源的可视化 AI 代理构建平台,GitHub 星标超过 51,000 颗。它将复杂的 LLM 应用开发简化为直观的拖拽操作,让任何人都能通过图形界面快速搭建 AI 代理、聊天机器人和 RAG(检索增强生成)系统。相比传统代码开发,Flowise 大幅降低了 AI 应用的技术门槛,同时保留了足够的灵活性支持深度定制。
核心特色功能
- 拖拽式可视化编辑器:无需编写代码,通过图形界面连接各种 AI 组件,快速构建复杂的工作流
- 丰富的集成支持:内置 100+ 种 LLM 模型支持(OpenAI、Claude、Gemini、本地 Ollama 等),支持多种向量数据库(Chroma、Pinecone、Qdrant 等)
- MCP 服务器支持:内置 MCP(Model Context Protocol)集成,可连接各种外部工具和数据源
- 灵活的部署方式:支持 Docker 一键部署、本地 npm 安装、云端使用
- API 接口完整:自动生成 Swagger API 文档,方便与其他系统集成
- 多用户协作:支持用户管理和权限控制,适合团队使用
安装步骤
方式一:Docker 一键部署(推荐)
# 克隆项目
git clone https://github.com/FlowiseAI/Flowise.git
cd Flowise
# 进入 docker 目录
cd docker
# 复制环境变量文件
cp .env.example .env
# 启动容器
docker compose up -d
# 访问地址
# http://localhost:3000
方式二:本地 npm 安装
# 要求:NodeJS >= 18.15.0
npm install -g flowise
# 启动服务
npx flowise start
# 默认访问 http://localhost:3000
方式三:Docker 镜像直接运行
# 拉取镜像
docker build -t flowise .
# 运行容器
docker run -d --name flowise -p 3000:3000 flowise
使用方法
服务启动后,访问 http://localhost:3000 即可进入 Flowise 可视化编辑器。
创建第一个 AI 代理
- 在左侧组件面板中,搜索并拖拽「Chatflow」画布到主区域
- 从组件列表中选择 LLM 节点(如 OpenAI ChatOpenAI)并连接到画布
- 配置 API Key 和模型参数
- 添加 Memory 节点(如 Buffer Memory)实现对话记忆
- 添加 Tool 节点扩展 AI 代理能力(如搜索、计算器)
- 点击右上角「Deploy」部署你的 AI 代理
构建 RAG 应用
- 拖入 Document Loader 节点加载文档(支持 PDF、TXT、Web URL 等)
- 添加 Text Splitter 节点对文档进行分块
- 添加 Embedding 节点将文本转为向量
- 配置向量数据库存储向量
- 添加 Vector Store Retriever 从数据库检索相关内容
- 连接 LLM 节点实现问答
适用场景
- 企业知识库问答:基于内部文档构建智能客服,支持多文件格式导入
- AI 代理开发:快速原型验证,将多个 AI 能力组合成自动化工作流
- 客服机器人:搭建具备记忆能力的对话机器人,提升客户服务体验
- 内部工具自动化:连接各种 API 和数据库,用自然语言查询和操作数据
开源协议
Flowise 采用 Apache-2.0 开源协议,允许商业使用且免费开源。企业可放心在生产环境中部署使用。
服务支持:如有兴趣不会搭建,可以联系微信:WRYD6166,开源项目搭建10-50元。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END








暂无评论内容