从0到1构建第一个n8n工作流

大模型向量数据库容器

字数 1572,阅读大约需 8 分钟

【学习n8n的常用链接】

picture.image

  1. n8n是啥

n8n 是一个开源的工作流自动化工具,类似于 dify ,但更灵活、更强大。
你可以通过可视化界面,将不同的应用和服务连接起来,实现自动化任务。

跟dify相比如何?

picture.image

贴一个知乎的评测
2025年AI开发利器大对决:Dify vs n8n全方位测评,哪个才是你的效率神器?[4]

【核心功能对比表】

| 功能/特性 | Dify | n8n | 谁更胜一筹? | | 工作流编排 | Chatflow(对话式)和Workflow(自动化)两种模式 | 通用节点式工作流,支持触发器、操作和条件逻辑 | 各有所长,Dify专注AI,n8n更通用 | | AI模型集成 | 原生支持200+种LLM模型,统一接口调用 | 通过专用节点支持OpenAI、HuggingFace等服务 | Dify | | RAG能力 | 内置完整RAG管道,可视化知识库管理 | 需手动组装RAG流程,组合多个节点实现 | Dify | | 第三方集成 | 主要集成AI相关服务和API | 400+预建节点,连接各类服务和系统 | n8n | | 自定义扩展 | 插件系统支持模型、工具、Agent策略等扩展 | 支持自定义节点开发和JavaScript代码节点 | 平局 | | 数据处理 | 专注于文本和向量数据处理 | 强大的通用数据转换和处理能力 | n8n | | 部署选项 | Docker、Helm、云服务 | Docker、npm、云服务 | 平局 | | 监控分析 | LLMOps功能,模型监控、日志、标注 | 工作流执行历史、Insights功能 | Dify |

如何选择 :如果你主要关注AI应用开发,Dify更合适
如果你需要连接多种系统和服务,n8n 会是更好的选择。

以下是n8n的部署和使用

  1. 部署n8n

常规部署的两种方式:npmdocker ,按需选择

  • npm 优势:快速启动
  • docker 优势:便于管理数据库,好管理,好迁移,兼容性强

方式1. npm安装

步骤1. 安装Node.js


 
 
 
 
   
# 更新软件包列表  
sudo apt update  
  
# 安装Node.js和npm  
sudo apt install nodejs npm  
  
# 检查版本  
node -v  
npm -v

步骤2. 安装n8n


 
 
 
 
   
# 安装n8n  
sudo npm install -g n8n  
  
# 查看版本  
n8n -v

picture.image

步骤3. 启动n8n


 
 
 
 
   
# 启动n8n  
n8n

picture.image

启动如遇报错

Your Node.js version 18.19.1 is currently not supported by n8n.
Please use a Node.js version that satisfies the following version range: >=20.19 <= 24.x

这个错误表明你当前使用的 Node.js版本 (18.19.1)不被n8n支持。n8n需要Node.js版本在20.19到24.x之间。

要解决这个问题,你需要升级你的Node.js版本。


 
 
 
 
   
# 1.下载NVM安装脚本  
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash  
  
# 2.加载NVM环境变量  
source ~/.nvm/nvm.sh

重新打开终端


 
 
 
 
   
# 3.验证NVM是否可用  
nvm --version  
  
# 4.安装所需版本的Node.js  
nvm install 20.19  
  
# 5.使用新安装的Node.js版本  
nvm use 20.19  
  
# 6.验证Node.js版本  
node -v

然后再启动


 
 
 
 
   
n8n

步骤4. 初始化n8n界面

在浏览器输入


 
 
 
 
   
http://localhost:5678

就能看到如下3个初始化界面

picture.image

第3个页面点跳过,或者发送密钥(🉑免费解锁高级功能)

picture.image

如果当时点了“跳过”,后续才想激活,可以点左下角,进入“设置"--"使用和计划",重复以上激活步骤

picture.image

步骤5. 配置大模型

点击 概述 - 证书 - 添加新凭证 -- 选OpenAI -- 输入API key和URL -- 保存

  • 类型 :OpenAI
  • API Key :可以用
  • • 免费的 硅基流动[5]
  • • 免费的 Openrouter[6]
  • • 各大模型官网申请 API-KEY

测试连接成功即可

<硅基流动示例>

picture.image

<Openrouter示例>

picture.image

方式2. docker安装

n8n 版本说明

n8n 每周发布一次小版本。

  • latest :适用于生产环境
  • next :最新 beta 版本,可能不稳定

启动 n8n


 
 
 
 
   
docker volume create n8n\_data  
  
docker run -it --rm \  
  --name n8n \  
  -p 5678:5678 \  
  -v n8n\_data:/home/node/.n8n \  
  docker.n8n.io/n8nio/n8n
  • • 创建数据卷 n8n\_data 用于本地持久化数据。
  • • 镜像通过端口 5678 暴露容器。

访问地址:http://localhost:5678[8]

初始化n8n界面配置大模型 参考npm安装的步骤4和5

  1. 如何使用n8n

3.1 自建工作流

示例Demo:做一个大模型对话的工作流

新建工作流,

picture.image

添加一个 Agent 节点,支持配置“Chat Model”、“Memory” 和 “Tool”, Chat Model (作为大脑)必须配置

picture.image

该节点的呈现方式,让 Agent 的定义真正具象化了

Agent定义 :Agent(智能体)是具备自主行动能力的系统 ,LLM 充当代理的大脑,包含规划(Planning)、记忆(Memory)、工具(Tools)、执行(Action)四大要素(或称组件),能够执行一系列复杂的任务。

配置“Chat Model”

  • 选接口方式OpenAI 类型和 OpenRouter 类型都配置过,都可以选
  • 选LLM模型 :(以 OpenRouter 为例)如“deepseek-chat-v3-2024:free”

picture.image

配置完毕,点击灰色处回到工作流界面,打开聊天,执行流程

picture.image

3.2 使用模板创建工作流

示例Demo:做一个简易的RAG工作流

n8n的社区资源丰富,有很多应用模板可借鉴,按照以下步骤使用模版创建工作流:

    1. 进入应用市场
    1. 搜索/选择应用
    1. 点击免费使用
    1. 复制工作流json代码
    1. 创建工作流
    1. 在画布上,粘贴工作流

picture.image

picture.image

picture.image

至此,我们学会了模板应用的创建🎉

点击“执行工作流”,上传一份文档,就可以开始 RAG 对话了。

picture.image


如何运行?

不确定要修改哪些节点才能正常运行?
那就运行起来再改。

比如OpenAI类型的 API-KEY 失效了,就可以把这些聊天模型(LLM)、嵌入模型(Embedding),更换成有额度的模型。

比如数据库节点要配置自己的端口、用户名、密码等信息。

比如HTTP节点需要更换URL。

等等,等等。


以上就是 n8n 的从0到1 入门级别的操作,你学会了吗?
欢迎评论区交流~

实践出真知,与君共勉~

引用链接

[1] n8n-Github:https://github.com/n8n-io/n8n
[2]n8n-官网:https://n8n.io/
[3]n8n-中文社区:https://www.n8nclub.com.cn/
[4]2025年AI开发利器大对决:Dify vs n8n全方位测评 :https://zhuanlan.zhihu.com/p/1898775808660710158
[5]硅基流动:https://cloud.siliconflow.cn/i/xJvN9Ecu
[6]Openrouter:https://openrouter.ai/models
[7]https://apisiliconflow.cn/v1:*https://apisiliconflow.cn/v*
[8]http://localhost:5678:*http://localhost:5678/*

picture.image

picture.image

点击下方卡片 关注我们

picture.image

  
📢【三连好运 福利拉满】📢  
  
🌟 若本日推送有收获:  
👍 点赞 → 小手一抖,bug没有  
📌 在看 → 一点扩散,知识璀璨  
📥 收藏 → 代码永驻,防止迷路  
🍻 分享 → 传递战友,功德+999  
🔔 关注 → 关注“AI早高峰”,追更不迷路,干货永同步  
  
💬 若有槽点想输出:  
👉 评论区已铺好红毯,等你来战!  

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论