手把手教你用Flowise:拖拽式LLM工作流快速入门
1. 为什么你需要Flowise——告别代码,专注逻辑
你有没有过这样的经历:想快速验证一个AI想法,比如把公司产品文档变成可问答的知识库,或者给销售团队做个智能话术助手,结果卡在LangChain的链式调用、向量库配置、提示词工程这些细节里?写完一堆代码,服务还没跑起来,热情已经耗尽。
Flowise就是为这种场景而生的。它不是另一个需要你从零搭环境、写胶水代码的框架,而是一个开箱即用的可视化画布——就像用Figma设计界面一样,把大模型能力拆成一个个“积木块”,你只需要拖、拉、连,5分钟就能拼出一个能跑的RAG聊天机器人。
它背后是vLLM加速的本地模型推理,但你完全不用关心CUDA版本、显存分配或量化参数。官方节点已封装好Ollama、HuggingFace、LocalAI等主流后端,切换模型只需点一下下拉框;Marketplace里100多个现成模板(从网页爬虫到SQL查询Agent),一键导入再微调两处,就能直接用。
这不是玩具。它是MIT协议的开源项目,GitHub星标45.6k,周更活跃,生产级功能齐全:支持PostgreSQL持久化、一键导出REST API、嵌入React/Vue前端,甚至提供Railway、Render等平台的一键部署模板。树莓派4都能跑,更别说你的开发机或云服务器。
如果你的目标是“让想法快速落地”,而不是“研究框架源码”,那Flowise就是你现在最该试的工具。
2. 零基础部署:三步启动本地服务
Flowise的部署哲学是“越简单越好”。它不强制你装Docker、不让你配Nginx反向代理、也不要求你先学Node.js生态。下面是最轻量的启动方式,全程5分钟内完成。
2.1 环境准备(仅需基础依赖)
Flowise基于Node.js运行,但对系统要求极低。以下命令适用于Ubuntu/Debian系Linux(如WSL2、云服务器):
# 更新包管理器并安装编译依赖(vLLM需要) apt update apt install cmake libopenblas-dev -y # 创建工作目录并克隆仓库 cd /app git clone https://github.com/FlowiseAI/Flowise.git cd Flowise注意:如果你只是想快速体验(非生产用途),推荐直接使用Docker镜像
flowiseai/flowise,一行命令即可:docker run -d -p 3000:3000 -v flowise-storage:/app/storage flowiseai/flowise
本文后续操作均以源码部署为例,因它更透明、便于调试。
2.2 配置与启动(关键一步)
Flowise默认使用.env文件管理配置。我们复制示例文件并添加必要变量:
# 复制环境配置模板 mv /app/Flowise/packages/server/.env.example /app/Flowise/packages/server/.env # 编辑.env文件(用nano/vi等任意编辑器) # 在文件末尾添加一行(示例使用Ollama本地模型,无需API密钥): OLLAMA_BASE_URL=http://localhost:11434小贴士:如果你用OpenAI等云端模型,只需取消注释并填写
OPENAI_API_KEY=your_key即可。Flowise会自动识别并路由请求。
接下来安装依赖、构建并启动:
# 安装pnpm(比npm更快的包管理器) npm install -g pnpm # 安装项目依赖(首次较慢,约2-3分钟) pnpm install # 构建前端+后端(约1-2分钟) pnpm build # 启动服务(后台运行,日志实时输出) pnpm start启动成功后,终端会显示类似Server is running on http://localhost:3000的提示。稍等1-2分钟,待vLLM模型加载完毕(首次启动会下载模型权重),你就可以在浏览器中访问http://localhost:3000进入Flowise界面。
2.3 登录与初始体验
Flowise默认启用用户认证。根据你提供的演示账号信息:
- 用户名/邮箱:kakajiang@kakajiang.com
- 密码:KKJiang123
登录后,你会看到一个干净的画布界面——左侧是节点工具栏,中间是空白画布,右侧是属性面板。这就是你构建AI工作流的全部战场。
提示:首次进入建议点击右上角「Templates」→「Docs Q&A」,选择一个模板导入。它会自动生成一个完整的RAG流程:上传PDF → 切分文本 → 存入向量库 → 接收用户提问 → 检索+生成答案。这是最快理解Flowise逻辑的方式。
3. 拖拽实战:从零搭建一个产品文档问答机器人
现在,我们亲手做一个真实可用的场景:将公司《Flowise用户手册》PDF转化为可自然语言提问的问答助手。整个过程不写一行代码,只靠鼠标操作。
3.1 创建新流程与基础节点
点击左上角「+ New Flow」创建空白画布。
从左侧工具栏拖出以下4个核心节点到画布:
- Document Loader(文档加载器):负责读取PDF文件
- Text Splitter(文本切分器):把长文档切成小段,适配向量模型输入长度
- Vector Store(向量存储):将文本向量化并存入数据库(默认Chroma,轻量免配置)
- LLM(大语言模型):执行最终的回答生成(我们选Ollama的
llama3)
按顺序连线:
Document Loader→Text Splitter→Vector Store→LLM。Flowise会自动校验连接合法性(比如不能把LLM直接连到Loader)。
3.2 配置每个节点(全图形化)
Document Loader节点:
在右侧属性面板中,点击「Upload Files」按钮,选择你的PDF手册。支持多文件批量上传。Flowise会自动识别PDF文字(OCR暂不支持,需纯文本PDF)。Text Splitter节点:
保持默认设置即可(chunkSize=1000, chunkOverlap=200)。这是平衡检索精度和上下文长度的常用值。若你的文档技术术语密集,可将chunkSize调小至500。Vector Store节点:
这是Flowise最省心的设计。无需手动启动Chroma服务——它内置了内存版Chroma,开箱即用。你只需在「Collection Name」填一个名字,比如flowise_manual,其他全留空。LLM节点:
在「Model」下拉框中选择Ollama→llama3(确保你本地已通过ollama run llama3下载该模型)。其他参数如temperature(创意度)保持默认0.7。
3.3 添加用户交互入口(让机器人“开口说话”)
光有后台流程还不够,我们需要一个“对话窗口”。Flowise用Chat Input和Chat Output节点实现:
- 拖入
Chat Input节点(位于「Input/Output」分类下),将其连接到LLM节点的输入端口。 - 拖入
Chat Output节点,将其连接到LLM节点的输出端口。
此时,你的流程图应为:Document Loader→Text Splitter→Vector Store→LLM←Chat InputLLM→Chat Output
关键原理:
Chat Input接收用户问题,LLM节点内部会自动触发向量库检索(RAG),将最相关的文档片段作为上下文喂给模型,再生成回答。你完全不用写retriever.get_relevant_documents()这类代码。
3.4 保存、测试与优化
- 点击右上角「Save」按钮,为流程命名,如“产品手册问答”。
- 点击「Deploy」部署该流程。几秒后状态变为绿色「Active」。
- 点击「Test」按钮,打开右侧测试面板。输入问题,例如:“如何配置Ollama模型?”
→ Flowise会实时返回答案,并在下方显示检索到的PDF原文片段(证明RAG生效)。
常见优化点(无代码):
- 若答案太泛:在
LLM节点的「System Message」中添加提示词,如:“你是一名资深Flowise技术支持工程师,请用简洁、准确的技术语言回答,引用手册原文时标注页码。” - 若检索不准:在
Vector Store节点中,将「Embedding Model」从默认text-embedding-3-small换成text-embedding-3-large(需网络下载,首次较慢)。
4. 进阶技巧:让工作流更智能、更实用
Flowise的“拖拽”绝非玩具级。当你熟悉基础后,这些能力会让你的工作流真正具备生产价值。
4.1 条件分支:一个流程处理多种任务
想象这个需求:用户提问时,如果是“价格相关”,走销售FAQ流程;如果是“技术问题”,走开发者文档流程。Flowise用Conditional Node轻松实现:
- 在
Chat Input后添加Conditional Node(位于「Logic」分类)。 - 设置条件规则:
input.includes("价格")→ 分支A;input.includes("API") || input.includes("部署")→ 分支B。 - 分别将分支A连到销售FAQ流程,分支B连到技术文档流程。
所有条件表达式都支持JavaScript语法,你甚至可以调用Date.now()做时间判断,或用正则匹配复杂模式。
4.2 工具集成:让AI调用真实世界能力
Flowise预置了大量工具节点,让LLM不只是“聊天”,而是“做事”:
- Web Scraper:输入URL,自动抓取网页内容供分析(适合监控竞品动态)
- HTTP Request:调用任意REST API(如查询天气、发送企业微信消息)
- Zapier Node:对接Zapier生态,触发邮件、Slack通知、CRM更新等
- Python Function:写一段Python脚本(如数据清洗、计算),Flowise会沙箱执行
实操示例:当用户问“今天北京天气如何?”,自动调用和风天气API
- 拖入
HTTP Request节点,配置URL为https://devapi.qweather.com/v7/weather/now?location=101010100&key=YOUR_KEY - 将其连接到
LLM节点前,LLM的system prompt改为:“你是一个天气播报员。请解析HTTP响应中的weather和temp字段,用口语化中文播报。”
4.3 模板复用与共享:站在巨人肩膀上
Flowise Marketplace是宝藏库。点击顶部「Templates」,你能找到:
- SQL Agent:上传数据库Schema,用户用中文提问,自动生成并执行SQL
- Web Scraping + Summarize:定时抓取新闻网站,摘要关键信息
- Email Classifier:根据邮件内容自动打标签(投诉/咨询/订单)
导入后,双击任一节点即可修改其参数。所有模板都开源,你还能点击「Export」导出为JSON,分享给团队成员——他们只需「Import」,无需重装环境。
5. 生产就绪:从实验到上线的最后一步
Flowise的设计哲学是“开发即生产”。当你在画布上完成流程,离上线只差一步。
5.1 一键导出API:嵌入现有业务系统
每个部署好的流程,Flowise都会自动生成专属REST接口:
- Endpoint:
POST /api/v1/prediction/{flowId} - Request Body:
{"question": "你的问题", "overrideConfig": {}} - Response:
{"text": "AI生成的答案"}
这意味着,你可以:
- 在公司CRM系统中,点击“智能推荐”按钮,调用此API返回客户历史问题的相似解答
- 在钉钉机器人中,监听群消息,对含“@AI助手”的消息自动调用该API
- 在Vue前端中,用
fetch()调用,实现无刷新问答
实测:用curl测试,平均响应时间<800ms(RTX 4090 + llama3-8b量化版)。
5.2 持久化与协作:不止于个人玩具
默认的Chroma是内存数据库,重启即丢失。生产环境需切换为持久化方案:
- 在
.env文件中添加:DATABASE_TYPE=postgresDATABASE_URL=postgresql://user:pass@localhost:5432/flowise - 启动PostgreSQL服务(Docker一键:
docker run -d --name postgres -e POSTGRES_PASSWORD=flowise -p 5432:5432 -v pgdata:/var/lib/postgresql/data postgres) - 重启Flowise,所有流程、向量库、用户数据将自动存入PostgreSQL。
此外,Flowise支持多用户协作:管理员可创建团队空间,为不同成员分配流程编辑、测试、只读权限,审计日志完整记录每次修改。
6. 总结:Flowise不是替代,而是加速
回顾整个过程,你做了什么?
- 没写一行Python或JavaScript;
- 没查LangChain文档里
ConversationalRetrievalChain的17个参数; - 没配过一次向量库的相似度阈值或重排序模型;
- 却完成了一个可部署、可扩展、可协作的AI应用。
Flowise的价值,不在于它有多“高级”,而在于它精准切中了AI工程化的最大痛点:抽象泄漏。当我们想用AI解决业务问题时,却被底层框架的复杂性层层拦截。Flowise把那些必须懂、但又不该花时间懂的细节,封装成可靠的节点;把那些需要反复调试、但逻辑固定的模式,沉淀为可复用的模板。
它不取代你学习LangChain或vLLM,而是让你在掌握它们之前,就能交付价值。当你用Flowise跑通第一个RAG流程时,那种“原来AI应用可以这么快”的震撼,正是技术普惠最真实的模样。
所以,别再让环境配置成为你AI探索的第一道墙。打开终端,敲下那行docker run,或者跟着本文走完源码部署。5分钟后,你的第一个拖拽式AI工作流,就在浏览器里等着你提问了。
--- > **获取更多AI镜像** > > 想探索更多AI镜像和应用场景?访问 [CSDN星图镜像广场](https://ai.csdn.net/?utm_source=mirror_blog_end),提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。