【开源】Langflow:用拖拽方式构建AI工作流,支持MCP服务器和多种大模型

今天给大家介绍一个非常直观好用的AI工作流构建工具——Langflow。这是一个用Python编写的开源AI工作流平台,通过可视化的拖拽界面,让用户可以轻松构建和部署AI工作流和Agent,支持几乎所有主流的大语言模型和向量数据库。

项目介绍

Langflow是一个强大的AI工作流构建平台,核心理念是将复杂的AI工作流变得直观可见。它提供了一个拖拽式的可视化界面,让用户无需写代码也能构建复杂的AI流程。同时,所有工作流都可以通过API方式部署,也可以导出为MCP服务器供其他AI工具调用。

项目在GitHub上已超过146000颗星,是目前最热门的AI工作流开源项目之一。支持本地部署,数据完全私有。

核心特色功能

一,可视化拖拽界面。直观的画布式界面,通过拖拽组件即可构建AI工作流,无需编写代码。内置交互式Playground,可以随时测试和调整每个步骤。

二,源码完全可定制。所有组件都是Python代码,可以随时查看和修改源码,打造自己独有的组件。

三,多Agent编排。支持多Agent协作、对话管理和RAG(检索增强生成)模式。

四,灵活的部署选项。支持Docker一键部署、本地pip安装、桌面客户端(Windows/Mac),满足不同用户需求。

五,丰富的集成。支持OpenAI、Anthropic、Azure OpenAI、Google Gemini、Ollama、DeepSeek等几乎所有主流大模型;支持Chroma、Pinecone、Weaviate等向量数据库。

六,MCP服务器支持。工作流可以一键部署为MCP服务器,供Cursor、Claude Desktop等AI编程工具使用。

七,API导出。完成的工作流可以导出为JSON,在自己的Python应用中直接使用。

安装步骤

方式一(Docker部署,推荐):

docker run -p 7860:7860 langflowai/langflow:latest

访问 http://localhost:7860 即可。

方式二(pip安装):

需要Python 3.10-3.13,推荐使用uv包管理器:

uv pip install langflow -U
uv run langflow run

方式三(桌面客户端):

直接从官网 https://www.langflow.org/desktop 下载Windows或Mac客户端,所有依赖已打包,无需配置环境。

使用方法

1. 打开Langflow,点击 New Flow 创建新工作流
2. 在左侧组件面板中拖拽需要的组件到画布上
3. 常见组件包括:LLM(选择大模型)、Prompt(提示词模板)、Vector Store(向量数据库)、Chroma(文档存储)、Text Input(文本输入)等
4. 连接各组件形成完整的数据流
5. 点击右下角Playground测试运行
6. 满意后点击 API 获取调用接口,或导出为MCP工具

适用场景

AI应用开发:快速原型验证AI产品想法;企业知识库:构建基于私有文档的问答系统;RAG系统:构建检索增强生成 pipeline;多Agent协作:编排多个AI Agent协同工作;AI工作流自动化:将AI能力集成到现有业务流程中。

开源协议

MIT协议,开源免费,可商用。

GitHub仓库:https://github.com/langflow-ai/langflow


服务支持:如有兴趣不会搭建,可以联系微信:WRYD6166,开源项目搭建10-50元。

© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容