在 AI 应用开发中,如何高效地将大语言模型、向量数据库、工具调用串联成一条完整的工作流,是每个开发者都会遇到的难题。今天要介绍的 Langflow,就是一款让你用搭积木的方式可视化构建 AI 工作流的开源利器。
项目简介
Langflow 是一个强大的可视化平台,用于构建和部署 AI 驱动的智能体(Agent)和工作流。它既是低代码工具,又是全代码友好的平台——你可以通过拖拽节点的可视化方式快速搭建 AI 流程,也可以深入源码用 Python 自定义任意组件。目前该项目在 GitHub 已斩获超过 14 万颗星,活跃的社区生态和持续更新的功能使其成为 AI 工作流领域的明星项目。
核心特色功能
Langflow 的设计理念是「所见即所得」:
- 可视化画布:通过拖拽节点即可构建复杂 AI 流程,无需写一行代码也能完成智能体编排。
- 多模型支持:原生支持 OpenAI、Anthropic、Azure OpenAI、HuggingFace 等所有主流大模型,还支持 Ollama 本地模型。
- 多向量库集成:无缝对接 Chroma、Pinecone、Weaviate、Milvus 等向量数据库。
- 多智能体编排:内置对话管理、检索增强(RAG)等高级能力,支持复杂多步骤任务。
- 一键部署为 API:完成的工作流可以直接导出为 REST API,供任何语言或框架调用。
- MCP 服务器支持:可将工作流发布为 MCP 工具,供 Cursor、Claude Desktop 等 AI 工具直接使用。
- 交互式 Playground:内置即时测试环境,可逐步查看每个节点的输入输出,便于调优和排错。
安装步骤
Langflow 支持多种安装方式,推荐使用 uv 包管理器(Python 3.10-3.13):
方式一:pip 安装(推荐)
uv pip install langflow -U uv run langflow run
安装完成后,访问 http://127.0.0.1:7860 即可打开可视化界面。
方式二:Docker 部署
docker run -p 7860:7860 langflowai/langflow:latest
容器启动后同样访问 http://localhost:7860 开始使用。
方式三:桌面客户端
Langflow 还提供 Windows 和 macOS 桌面版,下载即用,无需配置 Python 环境,适合初学者快速体验。
使用方法
首次打开界面,你会看到一个空白的画布。左侧是组件面板,包含:
- Prompts:提示词模板节点
- Models:大语言模型节点(支持选择具体模型)
- Chains:链式调用节点(如 LLMChain、RetrievalQA)
- Agents:智能体节点(ReAct、Conversational 等)
- Tools:工具节点(搜索、计算、API 调用等)
- Memory:记忆存储节点(对话历史持久化)
拖拽一个「Prompt」和一个「Model」到画布,用连接线串联,点击「运行」按钮即可看到输出结果。更复杂的场景——例如做一个带 RAG 检索的个人知识库问答——只需按顺序串联:文档加载 → 文本分割 → 向量嵌入 → 向量存储 → 检索器 → Prompt → LLM → 输出。
适用场景
- 快速原型验证 AI 业务流程,无需从零写代码
- 构建企业级 RAG 知识库问答系统
- 多模型对比评测(同一流程切换不同模型看效果)
- 将 AI 能力封装为 API 集成到现有产品中
- 团队内部 AI 工具共享(导出一个 JSON 即可复现流程)
开源协议
Langflow 采用 MIT 开源协议,可以自由用于个人和商业项目。
服务支持:如有兴趣不会搭建,可以联系微信:WRYD6166,开源项目搭建10-50元。








暂无评论内容