Flowise新手必看:10分钟学会创建第一个AI工作流
你是不是也遇到过这些情况:想快速把公司文档变成可问答的知识库,却卡在LangChain代码里;想测试一个RAG方案,光搭环境就折腾半天;看到别人用Flowise三分钟做出智能客服,自己点开界面却不知从哪下手?别担心——这篇文章就是为你写的。不讲原理、不堆术语,只带你从零开始,用真实操作步骤,在10分钟内完成第一个可运行的AI工作流。全程无需写一行代码,所有操作都在网页界面中完成。
1. 为什么Flowise是新手最友好的起点
在众多低代码AI平台中,Flowise不是功能最炫的,但一定是上手门槛最低、反馈最快、容错最强的那个。它不像LangFlow需要理解React Flow节点逻辑,也不像自建LangChain服务要反复调试依赖版本。它的设计哲学很朴素:让想法立刻变成可交互的东西。
1.1 它到底能帮你做什么
- 一句话场景还原:把PDF说明书拖进去 → 输入“怎么重置设备?” → 直接返回准确步骤
- 零配置知识库:上传5份内部制度文件 → 自动生成问答API → 前端调用就能嵌入OA系统
- 免开发Agent:连上企业微信Webhook → 设置“收到‘请假’自动查审批流” → 消息一来就响应
这些不是Demo效果,而是Flowise默认就支持的开箱能力。背后没有魔法,只有把LangChain里那些抽象概念——LLM、Prompt Template、Text Splitter、Vector Store、RetrievalQA Chain——全部封装成带图标的可视化节点。
1.2 和其他工具的关键区别(新手视角)
| 维度 | Flowise | LangFlow | 自建LangChain |
|---|---|---|---|
| 第一次打开界面后,第1分钟你在做什么 | 拖一个“LLM”节点 + 一个“Prompt”节点 + 连线 | 研究节点类型说明文档 | 查ModuleNotFoundError: No module named 'langchain'报错 |
| 添加本地大模型(如Qwen2)需要几步 | 下拉选择“Ollama” → 输入模型名qwen2:7b→ 保存 | 手动写Custom LLM组件 → 配置Pydantic模型 | 写40行代码初始化ChatOllama + 处理stream响应 |
| 调试时看到错误,你能直接定位到哪 | 节点右上角红色感叹号 → 点击显示具体报错(如“向量库未连接”) | 控制台滚动几百行日志 → 手动grep关键词 | pip install -v看编译过程,或翻GitHub Issues |
这不是贬低其他工具,而是说:如果你的目标是今天下午就让老板看到一个能回答问题的原型,Flowise就是那把最趁手的螺丝刀。
2. 10分钟实战:从空白画布到可问答的知识库
我们不做任何前置安装——你看到的这个镜像已经预装好vLLM和Flowise服务,所有环境都已就绪。现在,请打开浏览器,访问http://你的服务器IP:3000(如果本地运行则是http://localhost:3000),用文末提供的演示账号登录。
2.1 第一步:创建新工作流(30秒)
登录后点击左上角+ New Flow→ 输入名称公司产品FAQ问答→ 点击Create。
你会看到一片空白画布,右侧是节点面板。别慌,我们只用其中4个节点就能跑通:
LLM(大语言模型)Prompt Template(提示词模板)Document Loader(文档加载器)Vector Store(向量数据库)
提示:Flowise节点命名非常直白,看到名字基本就知道用途。不用记缩写,更不用背参数。
2.2 第二步:加载你的文档(2分钟)
在右侧节点栏找到Document Loader→ 拖到画布中央 → 双击打开配置面板:
Type选Text(先用纯文本测试)Text输入框里粘贴一段真实产品说明,例如:【产品A】支持Wi-Fi 6E,最大传输速率达3.6Gbps;充电接口为USB-C,支持PD3.0快充;续航时间约12小时。 【产品B】采用双频Wi-Fi,2.4GHz/5GHz自动切换;配备Type-C+Micro-USB双接口;续航时间8小时。- 点击右下角Save
此时你已成功把文字“喂”给了Flowise。不需要分词、不关心chunk size,默认设置就够用。
2.3 第三步:搭建检索问答链(3分钟)
这是最核心的一步,我们要把“文档”和“提问”连起来:
拖一个Vector Store节点到画布 → 双击配置:
Type选InMemory(内存版,适合测试,无需额外服务)- 其他保持默认 →Save
拖一个Prompt Template节点 → 双击配置:
Template输入框粘贴以下内容(这就是让大模型“懂规矩”的指令):你是一个专业的产品顾问,请根据以下【知识库】内容,用中文简洁回答用户问题。 如果知识库中没有相关信息,直接回答“暂无此信息”。 不要编造答案,不要解释推理过程。 【知识库】 {context} 【用户问题】 {question}Input Variables自动识别出context和question→Save
拖一个LLM节点 → 双击配置:
Type选Ollama(本镜像已预装vLLM,但Ollama接口兼容性最好)Model Name输入qwen2:1.5b(镜像内置轻量模型,响应快)Base URL保持默认http://localhost:11434→Save
连线!(关键动作)
- Document Loader 的输出箭头 → 连到 Vector Store 的输入口(建立知识库)
- Vector Store 的输出箭头 → 连到 Prompt Template 的
context输入口 - Prompt Template 的
question输入口 → 留空(等会手动输入) - Prompt Template 的输出箭头 → 连到 LLM 的输入口
此时画布应呈现清晰链条:文档 → 向量库 → 提示词 → 大模型。
2.4 第四步:测试并优化效果(2分钟)
点击画布右上角Chat按钮 → 弹出对话窗口:
- 输入问题:“产品A的续航时间是多少?”
- 点击发送 → 等待3秒 → 看到回复:“产品A的续航时间约12小时。”
成功!但别急着庆祝,再试一个边界情况:
- 输入:“产品C支持快充吗?” → 回复:“暂无此信息。”
这说明我们的“拒答机制”生效了——不是所有问题都硬凑答案,这才是专业RAG该有的样子。
小技巧:如果回答不理想,优先调整Prompt Template里的指令,而不是换模型。90%的效果提升来自提示词优化。
3. 让工作流真正可用的3个关键设置
刚才是最小可行流程,现在加3个设置,让它从“能跑”变成“能用”。
3.1 开启历史记忆(让对话有上下文)
默认Flowise每次提问都是独立的。要实现“上一句问产品A,下一句问它价格”,需启用记忆:
- 在画布中添加Memory节点(右侧节点栏搜索“Memory”)
- 配置
Type为Buffer Memory(最简单的历史缓存) - 将 Memory 节点的输出 → 连接到 Prompt Template 的
history变量(需在Prompt中增加{history}占位符) - 修改Prompt Template:在
{context}上方加入【对话历史】 {history}
测试:“产品A的续航多久?” → “那它充电接口呢?” → 会正确关联到同一产品。
3.2 替换为真实知识库(30秒)
刚才用的是手动粘贴文本,实际中你肯定要用文件:
- 删除原来的 Document Loader 节点
- 拖入新的Document Loader→
Type改为PDF或CSV - 点击
Upload File按钮 → 选择你电脑里的产品手册PDF - 其他配置不变,连线方式相同
Flowise会自动解析PDF文字、分块、向量化。整个过程后台完成,你只需等待进度条走完。
3.3 导出为API(1分钟,真正落地)
点击画布右上角Export→ 选择REST API:
- 自动生成API路径:
/api/v1/prediction/公司产品FAQ问答 - 复制cURL命令示例:
curl -X POST "http://localhost:3000/api/v1/prediction/公司产品FAQ问答" \ -H "Content-Type: application/json" \ -d '{"question":"产品A的续航时间是多少?"}' - 粘贴到终端执行 → 立刻返回JSON格式答案
这意味着:前端工程师可以用几行JS调用,客服系统可以接入Webhook,甚至Excel里用WEBSERVICE函数都能查。
4. 新手常踩的5个坑及解决方案
即使是最简流程,新手也会在细节上卡住。这些都是真实用户高频问题:
4.1 “连线后节点变灰,但没反应”
- 原因:Flowise要求每个节点必须有“有效输入”。比如Prompt Template的
question变量没连接任何东西,它就无法触发。 - 解法:在Chat界面提问时,Flowise会自动把问题传给
question变量;若要用API,则必须在JSON里提供question字段。检查你的API请求体是否包含"question": "xxx"。
4.2 “向量库搜索结果不准,总答非所问”
- 原因:默认的InMemory向量库使用基础Embedding模型,对专业术语理解弱。
- 解法:在Vector Store节点配置中,将
Embedding类型改为HuggingFace→model填sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2(多语言轻量版,比默认准确率高37%)。
4.3 “大模型回复太啰嗦,不按Prompt要求简洁回答”
- 原因:Qwen2等模型有“助手人格”倾向,需更强指令约束。
- 解法:在Prompt Template末尾追加两行:
【输出要求】 仅输出答案,不带前缀、不解释、不换行、不超过20字。
4.4 “上传PDF后提示‘解析失败’”
- 原因:扫描版PDF(图片格式)无法提取文字。
- 解法:用Adobe Acrobat或免费工具(如ilovepdf.com)先OCR识别,保存为可选中文本的PDF。
4.5 “修改节点后,Chat界面还是旧效果”
- 原因:Flowise不会自动重载变更,需手动保存并重启流程。
- 解法:点击画布右上角Save→ 然后点击Restart Flow(闪电图标)→ 再测试。
5. 下一步:从单点Demo到业务集成
你现在拥有的不是一个玩具,而是一个可立即扩展的AI能力底座。以下是3个平滑升级路径:
5.1 快速增强专业性(10分钟)
- 加校验规则:在LLM节点后添加Conditional Router节点 → 设置规则“如果回答含‘暂无’则触发邮件通知管理员”
- 接企业系统:用HTTP Request节点调用钉钉机器人Webhook,把用户提问自动推送到运营群
- 多源知识:并排添加2个Document Loader(一个PDF产品手册,一个CSV价格表)→ 用Merge Documents节点合并 → 统一检索
5.2 一键部署到生产环境(5分钟)
本镜像已预装Docker,直接运行:
docker run -d \ --name flowise-prod \ -p 3001:3000 \ -v /your/data:/app/server/storage \ -e FLOWISE_USERNAME=admin \ -e FLOWISE_PASSWORD=your_secure_password \ flowiseai/flowise数据目录挂载保证知识库不丢失,环境变量设密码保障安全。
5.3 接入自有大模型(3分钟)
若你已有vLLM服务(如http://vllm-server:8000/v1):
- LLM节点中
Type选OpenAI Base URL填http://vllm-server:8000/v1Model Name填你vLLM部署的模型ID(如Qwen2-7B-Instruct)API Key随意填(vLLM默认无需key)
从此,Flowise成为你私有大模型的“图形遥控器”。
6. 总结:你刚刚掌握了什么
回顾这10分钟,你实际上完成了传统AI工程中需要数天的工作:
- 搭建了完整的RAG技术栈(文档加载 → 分块 → 向量化 → 检索 → 提示工程 → 大模型生成)
- 验证了知识库问答的核心逻辑(精准匹配 + 拒答控制 + 上下文记忆)
- 获得了可集成的API接口(标准REST,无认证障碍)
- 掌握了Flowise的调试方法论(节点状态监控 → Prompt优先优化 → 渐进式增强)
Flowise的价值,从来不是替代开发者,而是把重复劳动压缩到鼠标拖拽之间,让你把精力聚焦在真正重要的事上:定义业务问题、设计用户流程、验证答案质量。当你能用10分钟做出第一个工作流,下一个10分钟,就可以把它变成销售团队的实时产品顾问;再下一个10分钟,它可能就是客服系统的智能预处理模块。
真正的AI落地,往往始于一个不完美的、但能立刻运行的原型。而Flowise,就是那个让你今天就能启动原型的工具。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。