Langflow: 可视化构建 AI 工作流,像搭积木一样玩转大模型

在 AI 应用开发中,如何高效地将大语言模型、向量数据库、工具调用串联成一条完整的工作流,是每个开发者都会遇到的难题。今天要介绍的 Langflow,就是一款让你用搭积木的方式可视化构建 AI 工作流的开源利器。

项目简介

Langflow 是一个强大的可视化平台,用于构建和部署 AI 驱动的智能体(Agent)和工作流。它既是低代码工具,又是全代码友好的平台——你可以通过拖拽节点的可视化方式快速搭建 AI 流程,也可以深入源码用 Python 自定义任意组件。目前该项目在 GitHub 已斩获超过 14 万颗星,活跃的社区生态和持续更新的功能使其成为 AI 工作流领域的明星项目。

核心特色功能

Langflow 的设计理念是「所见即所得」:

  • 可视化画布:通过拖拽节点即可构建复杂 AI 流程,无需写一行代码也能完成智能体编排。
  • 多模型支持:原生支持 OpenAI、Anthropic、Azure OpenAI、HuggingFace 等所有主流大模型,还支持 Ollama 本地模型。
  • 多向量库集成:无缝对接 Chroma、Pinecone、Weaviate、Milvus 等向量数据库。
  • 多智能体编排:内置对话管理、检索增强(RAG)等高级能力,支持复杂多步骤任务。
  • 一键部署为 API:完成的工作流可以直接导出为 REST API,供任何语言或框架调用。
  • MCP 服务器支持:可将工作流发布为 MCP 工具,供 Cursor、Claude Desktop 等 AI 工具直接使用。
  • 交互式 Playground:内置即时测试环境,可逐步查看每个节点的输入输出,便于调优和排错。

安装步骤

Langflow 支持多种安装方式,推荐使用 uv 包管理器(Python 3.10-3.13):

方式一:pip 安装(推荐)

uv pip install langflow -U
uv run langflow run

安装完成后,访问 http://127.0.0.1:7860 即可打开可视化界面。

方式二:Docker 部署

docker run -p 7860:7860 langflowai/langflow:latest

容器启动后同样访问 http://localhost:7860 开始使用。

方式三:桌面客户端

Langflow 还提供 Windows 和 macOS 桌面版,下载即用,无需配置 Python 环境,适合初学者快速体验。

使用方法

首次打开界面,你会看到一个空白的画布。左侧是组件面板,包含:

  • Prompts:提示词模板节点
  • Models:大语言模型节点(支持选择具体模型)
  • Chains:链式调用节点(如 LLMChain、RetrievalQA)
  • Agents:智能体节点(ReAct、Conversational 等)
  • Tools:工具节点(搜索、计算、API 调用等)
  • Memory:记忆存储节点(对话历史持久化)

拖拽一个「Prompt」和一个「Model」到画布,用连接线串联,点击「运行」按钮即可看到输出结果。更复杂的场景——例如做一个带 RAG 检索的个人知识库问答——只需按顺序串联:文档加载 → 文本分割 → 向量嵌入 → 向量存储 → 检索器 → Prompt → LLM → 输出。

适用场景

  • 快速原型验证 AI 业务流程,无需从零写代码
  • 构建企业级 RAG 知识库问答系统
  • 多模型对比评测(同一流程切换不同模型看效果)
  • 将 AI 能力封装为 API 集成到现有产品中
  • 团队内部 AI 工具共享(导出一个 JSON 即可复现流程)

开源协议

Langflow 采用 MIT 开源协议,可以自由用于个人和商业项目。


服务支持:如有兴趣不会搭建,可以联系微信:WRYD6166,开源项目搭建10-50元。

© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容