n8n 工作流自动化:它是什么,我们如何使用
n8n 是一个开源的工作流自动化平台,通过可视化节点编辑器将应用、API 和 AI 模型连接起来。它可在自托管服务器或 n8n 的云服务上运行,支持约 1,000 种原生集成及无限自定义 HTTP 连接,能基于事件、时间表或 Webhook 触发器执行工作流。自托管部署免费;云端套餐起步价 20 美元/月。
如果您用过 Zapier 或 Make,这个概念您不陌生。n8n 的不同之处 —— 也是我们在客户部署中选它的原因 —— 是它的定价模型、原生 AI 集成,以及自托管选项。本指南涵盖 n8n 的工作原理、我们为何选择它、如何在其中构建工作流,以及复杂性实际出现在哪里。
n8n 实际是什么#
基于节点的模型:触发器、动作与数据流#
n8n 将自动化建模为由节点和连接线构成的图。每个工作流从一个触发器节点开始 —— 启动工作流的东西:一次 Webhook 调用、一个定时点、已连接应用中的一个事件、一条进来的消息。触发器节点把数据传给完成动作的节点:发起 API 调用、转换数据、发送消息、写入数据库,或运行条件分支。
数据以 JSON 对象在节点之间流动。每个节点接收上一个节点的输出,对它做些什么,然后把结果继续传递。想理解一个工作流,读节点图就能知道完整故事 —— 它由什么启动、数据经过了什么、条件在哪里分叉。在凌晨 2 点出问题的时候,这种可追溯性真的很有用。
可视化编辑器不只是写配置文件的漂亮外壳。具有分支逻辑、错误处理器和条件路径的复杂工作流,以图示呈现远比 YAML 或 JSON 更易于导航。我把工作流交给不是工程师的客户后,他们也能读懂。
执行次数是如何计算的 —— 为什么这改变了成本账#
这是与 Zapier 和 Make 作经济性对比时起关键作用的细节。
n8n 按工作流运行次数计算执行次数,与工作流中有多少个节点无关。一个 10 节点的工作流被触发 1,000 次,消耗 1,000 次执行。
基于任务的平台则按每次运行的每个节点计算。同一个 10 节点工作流被触发 1,000 次,产生 10,000 个任务(Digidop, 2025)。这个差距就是 n8n 的成本优势所在。
以一个招聘接收工作流为例:收到简历、由 AI 节点解析、写入 ATS、通知招聘经理、创建日程邀请 —— 每次运行 5 个节点。每周 500 份申请,基于任务的平台成本是每周 2,500 个任务。在 n8n 上,是 500 次执行。每周 2,000 份申请时,基于任务的平台要贵 5 倍。规模越大,这笔账越糟,而不是越好。
云端 vs. 自托管:这个选择在实际中意味着什么#
n8n Cloud 负责托管和基础设施。起步套餐为 20 美元/月,每计费周期包含 2,500 次执行。您得到一个托管环境、自动更新,无需维护服务器。n8n Cloud 运行在法兰克福(欧盟),这对 GDPR 敏感型负载很重要。
自托管 n8n 运行在您的基础设施上 —— VPS、云虚拟机或本地服务器。没有执行次数限制,也没有授权费。您支付基础设施费用:根据负载和服务器规格,通常 20-100 美元/月。您负责更新、备份和部署本身。
对于合规敏感的环境 —— 医疗、法律、金融服务 —— 自托管通常是正确选择,整篇指南中我会不断回到这一点,因为这确实是我们多数客户做决定时的关键。您的工作流数据,包括任何流经 n8n 执行日志的患者、客户或财务信息,都保留在您的基础设施中。这很重要。
我们为什么选择 n8n 而不是其他自动化工具#
规模化时,按执行计费 vs. 按任务计费#
在生产客户工作流产生的体量下,按任务计费会变成一笔真实的成本。我们为多个客户场景建了模型:每天处理 300 条理赔的保险接收管道、每周处理 1,000 份申请的招聘公司、每月处理 200 份新联系表单的律所。每种情况下,按执行计费的模型都明显更便宜 —— 在这些量级下,通常比等价的按任务计费平台便宜 5-10 倍。
原生 AI 节点:把 LangChain 内建到工作流层#
n8n 自带大约 70 个基于 LangChain 框架构建的 AI 专用节点(Contabo, 2025)。这不是一个小特性。意味着您可以在工作流中加入一个推理步骤,不用写代码,也不用单独做 API 集成:
- AI Agent 节点:接收一项任务、调用已连接的 LLM、使用工具、返回结果 —— 一个完整的智能体步骤,就在一个工作流节点里
- Summarize Chain 节点:接收一份长文档并返回摘要
- 检索增强生成(RAG)节点:连接向量库、检索相关上下文、传递给模型
- Memory 节点:在多次调用之间维持对话状态
过去需要专门 Python 服务才能添加一步 AI 推理的工作流,现在完全可以在 n8n 编辑器中构建。对于只需要一个 AI 步骤的非 AI 工作流 —— 从这份文档中抽取关键字段、对这条支持工单做分类、给这条线索打分 —— AI 节点能处理,无需维护第二个服务。
针对合规敏感环境的自托管理由#
对医疗、法律和金融服务类客户而言,流经工作流的数据常常构成 ePHI、具特权的客户通讯或金融敏感记录。自托管 n8n 会把这些数据保留在客户自己的基础设施中。执行日志、工作流输入输出、在 n8n 中存储的凭证 —— 一概不离开客户网络。
n8n 在正确部署时,可支持 HIPAA、GDPR 和 SOC 2 的技术要求。工具不会挡住合规之路。实施和配置仍必须做对。
Code 节点:可视化不够用时#
n8n 包含一个 Code 节点,可接受 JavaScript 或 Python。当可视化工具集覆盖不了一次转换、一次复杂的解析任务或一次自定义集成时,您可以在节点里写代码。工作流仍留在 n8n 中;您不需要另外的函数服务。
大多数工作流永远用不到它。需要用到的那些,它就在那儿。
如何在 n8n 中构建工作流:一次实操走读#
步骤 1:在打开编辑器之前先梳理流程#
在碰 n8n 之前,把流程的确切步骤写下来:由什么触发、数据如何流动、涉及哪些系统、输出应该是什么。这会花 30 分钟,但能避免数小时的中途返工。省掉这一步,是构建时间翻倍最常见的原因。
对一个招聘接收流程,这可能看起来像:通过 Typeform 提交新申请 -> 解析简历 -> 提取姓名、邮箱、技能、经验 -> 与已有 ATS 记录比对 -> 创建或更新 ATS 记录 -> 依据岗位要求给申请打分 -> 向招聘经理发送带摘要的通知 -> 加入日历审核队列。
步骤 2:选择部署方式 —— 自托管还是云端#
自托管:通过 Docker 部署,命令为 docker run -it --rm --name n8n -p 5678:5678 n8nio/n8n。为数据库设置环境变量(小负载用 SQLite,生产环境用 Postgres),设置 Webhook 基础 URL,并配置凭证加密密钥。
云端:在 n8n.io 创建账号。指定您的云端区域。几分钟内就能跑起来。
如果您的数据有合规要求 —— HIPAA、GDPR、SOC 2 —— 自托管是正确选择。云端启动更快,但一旦有 ePHI 或特权记录流经工作流,数据驻留在哪里就很关键,而这一点日后更难改变。
步骤 3:安装并配置 n8n#
自托管搭建:
- 部署 Docker 容器,并使用持久数据卷
- 对生产负载,设置
DB_TYPE=postgresdb并配置 Postgres 连接(小型部署和本地测试使用 SQLite 也可) - 设置
N8N_HOST、WEBHOOK_URL和N8N_ENCRYPTION_KEY环境变量 - 为 HTTPS 配置反向代理(nginx 或 Traefik)
- 为数据库设置自动备份
n8n 对存储的凭证做静态加密。您在部署时设置的加密密钥就是那把钥匙 —— 妥善保管,且在第一条真实工作流运行后不要更改。轮换它需要您重新录入每一条凭证。
步骤 4:构建并测试您的第一个工作流#
打开可视化编辑器。添加一个触发器节点 —— Webhook、Schedule Trigger,或某个应用特定的事件触发器。为已记录流程的每个步骤添加动作节点。按顺序将它们连接起来;添加 IF 节点用于条件分支;添加 Set 节点用于数据转换。
使用「Execute Step」按钮逐节点测试,再跑完整的流。这是最快的调试方式:一次跑一个节点,检查输出 JSON,确认下一个节点读取前的数据结构。别等整条工作流连好再测 —— 到那时,第 2 个节点里一个糟糕的数据结构会在下游引发四个问题。
步骤 5:处理错误与边缘情况#
生产工作流会失败。问题是它们是静默失败还是明显失败。
- 为工作流加一个 Error Trigger 节点 —— 任何一次执行失败时它都会触发,路由到您的错误处理路径
- 在错误路径上加入 Slack 或邮件通知节点,让失败立刻被发现
- 对 HTTP Request 节点设置重试行为,处理瞬时 API 故障
- 使用 IF 节点把格式异常的数据路由到人工审核队列,而不是让工作流崩溃
最昂贵的失败是看起来像成功的那种。一次没被创建的预约、一封没被发出的邮件、一条没被更新的记录 —— 静默失败比吵闹的失败更糟。我们构建的每一个生产工作流都有错误路径。这不是可选项。
步骤 6:加入 AI 节点用于智能体步骤#
连接一个 AI Agent 节点。用 LLM 凭证配置它(OpenAI、Anthropic Claude、Google Gemini、Mistral,或面向本地/自托管模型的 Ollama)。如果步骤需要来自前几轮交互的上下文,加入 Memory 节点。为智能体能执行的任何动作加入 Tool 节点。
开工前值得知道的一件事:想从 AI Agent 节点拿到干净的结构化输出,通常要迭代 3-4 次提示词,而不是一次到位。第一版要么解释过度,要么漏掉输入中的边缘情况。为此留出时间 —— 这不是 n8n 做错了什么,只是提示词工程在实操中就是这样。
比如在一个法律接待工作流中,AI Agent 节点接收表单提交的文本,对法律事项类别做分类,抽取关键事实,并产出结构化的接待摘要供下一个节点使用。让分类能处理模棱两可的提交 —— 比如「我觉得我可能需要合同纠纷方面的帮助,但也许是劳动法?」—— 就是要多迭代几次的那部分。
步骤 7:在生产中监控并迭代#
n8n 为每一次执行都记录完整的输入/输出。在生产运行一周后,复盘执行日志:
- 有没有持续失败的工作流?在哪个节点?
- 有没有运行时间异常长的工作流?
- 有没有工作流未处理的数据格式变体?
大多数工作流会经过 2-3 轮修复才能在量上跑得干净。这很正常。「在测试中能跑」到「能处理真实用户实际发来的一切」之间的差距,才是大量实际工作发生的地方。
我们构建中的真实 n8n 工作流案例#
招聘:简历接收到 ATS 更新一站式完成#
为一家招聘公司:新申请进入邮箱 -> Webhook 触发 n8n -> HTTP Request 节点调用简历解析服务 -> 解析好的结构化数据(姓名、邮箱、技能、经验、学历)传给 IF 节点,检查候选人是否已在 ATS 中 -> 新人则创建 ATS 记录,已有则更新 -> AI Agent 节点按岗位标准给申请打分 -> Slack 通知把带分数的结构化摘要发给招聘经理 -> Calendar 节点创建审核时段。
节点总数:8。每份申请消耗的员工时间:接近零。之前的流程:人工看邮件、复制粘贴到 ATS、手动发 Slack 消息。
这次搭建最棘手的不是 AI 打分 —— 是简历解析器。简历以 PDF、Word、HTML 和纯文本形式到来,格式各不相同。我们最终把解析失败的件路由到人工审核队列,而不是让工作流崩溃。大约 3% 的提交会进到那里。
保险:来电到理赔记录创建#
为一个保险运营团队,该流程把一个语音 AI 智能体连接到理赔管理系统:通话结束 -> 语音智能体把转录和抽取字段(索赔人姓名、保单号、事故描述、日期)POST 到一个 Webhook -> n8n 接收数据 -> AI Agent 节点校验抽取字段并把模糊之处标记为人工审核 -> HTTP Request 节点创建理赔记录 -> HTTP Request 节点向索赔人发送确认短信 -> Slack 警报进入核损员频道。
通话结束后 30 秒内,理赔记录就存在了。核损员拿到的是结构化摘要,不是原始转录。
一个实话:语音 AI 的转录比演示里看起来要脏。语音重叠、背景噪音、非标准发音,都意味着 AI Agent 节点要处理大量部分或模糊的字段值。我们建了一个校验步骤,把低置信度字段标记为在创建记录前先做人工审核。没有这一步之前,核损员拿到的记录里保单号是错的。
法律:新联系表单到案件管理和日历邀请#
为一家律所:联系表单提交 -> Webhook 到 n8n -> AI Agent 节点对事项类别(人身伤害、遗产规划、家事法、其他)分类并抽取关键事实 -> IF 节点按事项类别路由到对应律师的接待队列 -> 通过 API 向事务所的案件管理系统添加一条新事项记录 -> 律师日历上创建一个 15 分钟的接待审核事件 -> 向潜在客户发送一封带后续步骤的自动邮件。
从表单提交到跟进邮件发出的响应时间:不到两分钟。
自托管 n8n:实际需要做什么#
基础设施要求与每月成本现实#
在轻负载下,自托管 n8n 可在小型 VPS 上稳定运行:2 vCPU、2GB 内存、20GB SSD。在大多数云服务商那里,这个配置每月 6-12 美元。
对需要并发执行、外部 Webhook 流量和 AI 节点调用的生产负载:4 vCPU、8GB 内存、50GB SSD。根据提供商和区域不同,每月 20-60 美元。
如果您把 Postgres 和 n8n 放在同一台服务器,数据库成本加几美元;若用托管数据库实例,则每月 10-30 美元。一个生产级 n8n 部署的基础设施总成本大致在每月 20 到 100 美元之间。对多数客户而言,相较基于任务的 SaaS 所节省的费用,在第一个月就能收回这笔投入。
数据主权对 HIPAA、GDPR 和 SOC 2 环境意味着什么#
当 n8n 运行在您的基础设施上时,流经它的数据 —— 执行日志、输入载荷、输出结果、保险库中存储的凭证 —— 从不离开您的网络。
对医疗客户,流经接待工作流的患者数据是在受保护实体的环境内处理的。对法律客户,客户事项数据留在律所基础设施内。对金融服务,受 SEC Regulation S-P 监管的交易数据留在受控环境中。
自托管 n8n 支持 HIPAA、GDPR 和 SOC 2 的技术前提。您仍需正确配置:加密、访问控制、审计日志、网络分段,以及针对 HIPAA 与托管方签订的 BAA。自托管是必要条件,但不是充分条件 —— 配置仍必须做对。
我们为客户部署 n8n 时负责什么#
当我们为客户部署 n8n 时,负责:基础设施置备与加固、带有 Postgres 与合适备份的 Docker 配置、SSL/TLS、Webhook URL 配置、凭证保险库搭建、初始工作流构建、错误处理与告警,以及给客户运维团队的文档。
对合规敏感部署,我们还会做网络分段设计、加密验证、访问控制配置和合规文档。
n8n 与智能体 AI:超越数据管道#
AI Agent 节点:在工作流步骤内进行推理#
大多数 n8n 教程把它作为数据管道来讲:事件触发动作,数据在步骤之间转换,通知发出去。这覆盖了多数用例。较少被讨论的是 AI Agent 节点,它在工作流内加入了一个推理步骤 —— 做真正的决策,而不只是搬运数据。
AI Agent 节点接收一项任务、一组可用工具,以及可选的上下文。它调用 LLM 来决定做什么,使用被赋予的工具(读取数据库记录、调用 API、写入文件),评估结果,并返回供下一个工作流节点使用的结构化输出。
数据管道遵循固定逻辑。Agent 节点看情形做判断。当输入很乱,或者正确的动作取决于简单 IF 节点无法捕捉的上下文时,这个区别就很关键。
LangChain 节点:链、记忆与检索#
n8n 的约 70 个 AI 节点基于 LangChain 框架。您可以构建多步推理链、接入向量库实现检索增强生成、在多会话中维持对话记忆,以及组合模型 —— 全都在工作流编辑器内完成,不必直接写 LangChain 代码。
对于需要在某个文档语料库上推理的工作流 —— 法律判例、保险政策数据库、医学文献 —— RAG 节点在 AI Agent 节点产出输出之前先检索相关上下文。结果是基于真实数据的,而不是模型臆测。这就是「给我这类索赔的摘要」和「找出最相关的三个先例并解释它们如何适用」之间的差别。
何时加入 AI 步骤,何时保持确定性#
并非每个工作流都需要 AI 节点。如果逻辑基于规则、输入是结构化的 —— 比如「状态为 pending 则路由到队列 A,否则到 B」—— 确定性的 IF 节点更快、更便宜、更可预测。
在以下情况下加入 AI 节点:输入是非结构化的(自由文本、文档、语音转录);分类需要跨多个可能类别做判断;您需要生成内容(摘要、回复、沟通草稿);或者正确动作取决于简单条件规则无法捕捉的上下文。
拿不准时,先用确定性版本,在真实输入让基于规则的版本失效时再加入 AI。
何时自己在 n8n 上构建,何时引入外援#
一个有能力的运维人员无需开发就能构建什么#
只要有一些时间和尝试精神,一位技术过关的运维人员可以构建并维护以下类型的 n8n 工作流:
- 简单的数据同步工作流(新表单提交 -> 创建 CRM 记录)
- 通知工作流(A 系统事件 -> 带详情的 Slack 消息)
- 定时报表工作流(每日查询 -> 格式化邮件)
- 基础审批工作流(表单提交 -> 审核邮件 -> 批准后更新记录)
可视化编辑器确实易上手。n8n 的文档不错。社区论坛很活跃,通常能找到已经踩过您踩的坑的人。
工作流何时在技术上变得复杂#
复杂性往往出现在相同的几个地方。
API 认证是多数人首先撞上的墙:OAuth2 流程、令牌刷新、文档没讲全的厂商特定认证模式。规模化的错误处理是第二堵:重试、死信队列、把边缘情况路由到人工审核而不丢失记录。当您在解析不规则格式或在不同 schema 的 API 之间做映射时,数据转换会变得痛苦。
AI 节点设计本身是一门学问。给智能体节点做提示词工程、工具 schema 设计、跨调用管理记忆 —— 这些都需要时间迭代。合规配置 —— 加密、审计日志、访问控制、BAA 文档 —— 是工程工作,不是配置工作。工作流与子工作流之间互相调用、并行路径间传递状态的多工作流编排,是架构,不是搭建。
如果您在撞这些墙,那就是引入一位有过经验者的时机。
我们在启动构建前的工作流审计是什么样#
在开始构建之前,我们会做一次简短的流程评审:什么触发工作流、数据如何流动、需要连接哪些系统、失败模式是什么,以及适用什么合规约束。这会花 1-2 小时。它能避免最常见的失败方式 —— 构建了一个能处理标准情况、却在占真实量 20% 的例外上崩溃的工作流。
如果您在考虑自己的自动化用例是否适合 n8n,一次 免费自动化审计 是正确的起点。
常见问题#
n8n 真的免费吗? 自托管 n8n 免费 —— 没有执行次数限制、没有授权费。您支付基础设施费用,根据负载和服务器规格,通常每月 20-100 美元。n8n 的云端套餐起步 20 美元/月,每计费周期包含 2,500 次执行。「免费」是否成立,取决于您是否把自己维护部署所花的工程时间计算在内。
n8n 如何计算执行次数? n8n 按工作流运行次数计数,与工作流中有多少节点无关。一个 10 节点工作流被触发 1,000 次,消耗 1,000 次执行。基于任务的平台按每次运行的每个节点计数 —— 同一工作流会记成 10,000 个任务。在量级上,这个差距就是 n8n 在成本上的全部理由(Digidop, 2025)。
n8n 能连接到没有原生集成的系统吗? 可以。n8n 的 HTTP Request 节点能连接到任何 REST API。只要系统有 API —— 甚至是私有内部 API —— n8n 就能和它对话。原生集成(约 1,000 个)覆盖最常见的应用;HTTP 节点覆盖其他一切。
自托管 n8n 符合 HIPAA 吗? 自托管让您掌控患者数据存储和处理的位置 —— 它从不离开您的基础设施。这是 HIPAA 合规的前提。您仍需正确配置加密、访问控制和审计日志,并与托管方签订 BAA。工具支持所需的一切;配置本身仍必须做对。
n8n 可以连接到哪些 AI 模型? n8n 的 AI 节点通过 LangChain 集成层支持 OpenAI、Anthropic Claude、Google Gemini、Mistral、Ollama(本地/自托管模型)等。您可以串联模型、加入检索增强生成、维持对话记忆 —— 全都作为标准工作流中的节点完成。
n8n 和 Make 或 Zapier 有什么区别? 主要区别在于收费方式。n8n 按执行次数收费(每次工作流运行一次);Make 和 Zapier 按操作或任务收费(每次运行的每个节点一次)。在大规模下,n8n 明显更便宜。n8n 还提供自托管,并且其原生 AI/LangChain 集成比两者都更深入。Zapier 拥有最广的应用目录(约 8,000 个集成);Make 对非技术用户更精致。对在敏感数据上大规模构建自动化的工程团队而言,n8n 是更强的技术选择。
