做 AIAgent 开发的你,是否都有这样的崩溃瞬间?
-
为了接入不同模型,要申请和管理一大堆 API Key,有的还一“Key”难求。
-
想让 AI 学习网站内容,得硬着头皮去写复杂的爬虫脚本。
-
面对 PDF 里那些“天书”般的表格,除了手动复制粘贴,似乎别无他法。
但如果我告诉你,现在有几把“瑞士军刀”,能让你轻松解决这些问题呢?
今天,我为你整理了一份 AI Agent 的“特种兵”工具清单。它们每一个都专注于解决一个核心痛点,而且大部分都有免费额度,难度几乎为零。它们能帮你:
- 一把钥匙开所有门:用一个 API 统一调用市面上所有主流大模型。
- 一键“克隆”网站:将任何网站完整内容打包成 AI 能直接“吃”的 Markdown。
- 一招“降服”PDF:精准解析 PDF、PPT 中的复杂表格和内容。
无论你是想在 n8n 里搭建自动化流程,还是想为自己的 AI 应用构建一个强大的知识库,这份清单都将是你弹药库里最得力的武器。
话不多说,让我们直接进入正题!
📌 速览:3 大工具清单
| 序号 | 工具 | 一句话卖点 | 免费额度 | 难度 |
| 1 | Open Router | 一把钥匙开 400+ 大模型 | ✅ 有 | ⭐ |
| 2 | Firecrawl | 一键把整站变 Markdown | ✅ 有 | ⭐ |
| 3 | LlamaParse | PDF/音频/表格全能解析 | ✅ 有 | ⭐ |
一、 Open Router:你的大模型“万能切换器”!
想在 n8n 里自由切换 GPT-4o、Claude 3.5 Sonnet 和 Gemini 1.5 Flash 吗?
再也不用为申请不到特定 API(你懂得)而发愁。
Open Router 就是你的模型“万能遥控器”。它让你通过一个统一的 API密钥,就能无缝调用所有顶级大模型,彻底告别繁琐的多账号申请和管理流程。一个入口,玩转所有 AI!
1-快速上手
打开 openrouter.ai → 注册 → 充值。
申请 APIKey
2-n8n 配置
建立凭证:在 n8n 里直接选「Open Router Chat Model」节点,填一次 API Key 即可。
3-配置模型
接下来,任意选择需要使用的大模型。
然后,就可以自由对话了。
二、Firecrawl:一键将任何网站转化为 AI 可用的数据集
Firecrawl 是一款专为 AI 应用数据准备而生的爬虫工具。
它的核心作用是:输入任意网站的URL,它会自动深度抓取全站内容,并将其直接转换为三种核心格式:
-
Markdown: 完美保留文本结构和格式,是直接用于 RAG 或模型微调的最佳选择。
-
JSON: 提供结构化数据,便于进行更复杂的数据处理和分析。
-
截图: 完整捕获页面视觉,可用于存档或多模态应用。
有了它,你无需再编写复杂的爬虫脚本,就能轻松、高效地为你的 AI 项目构建起高质量的知识库。
1-官网测试试爬
打开 firecrawl.dev/app/playground 先试爬。在 URL 区域输入要爬取的网站链接。
这次要试爬的是微信公众号文章!https://mp.weixin.qq.com/s/6kTPLpW8qhWyqJDbzJs-xA
然后,看一下爬取结果:
2-配置节点
在 n8n 用「Firecrawl」节点,填 Authorization Token。
点击Install node 安装,然后随便选择 Crewl a website。
然后,点击配置凭证。
进到 Crawl.ai 网站,申请 api,填入凭证处:
https://www.firecrawl.dev/app/api-keys
确认凭证配置:
3-测试使用
Operation 选择“Scrape a url and get its content”,然后在 URl 区域,把需要爬的 URL
https://mp.weixin.qq.com/s/6kTPLpW8qhWyqJDbzJs-xA输入进去。
点击 Execute step,很快,我们就可以看到爬到的结果了。
这些爬取数据,可以再使用 AIAgent 节点进行再次分析和使用。
三、LlamaParse:专治 PDF 里的“天书”表格!
你是否也曾被 PDF 里那些“复制即乱码、截图又费力”的表格搞到崩溃?
LlamaParse 就是为此而生的终极解析神器。它能施展“魔法”,精准地识别PDF、PPT、甚至 Excel 文件中的复杂表格和多栏布局,然后将它们完美转换成 AI 最爱吃的、干净整洁的 Markdown 格式。
有了它,构建高质量 RAG知识库,就像呼吸一样简单。
1-实操流程-申请 API
打开 https://www.llamaindex.ai/llamaparse→ 上传文件 → 在线预览解析结果。
在使用之前,需要申请 APIKey。
https://cloud.llamaindex.ai/project/93c6665a-df7b-4aa9-88be-ada502600378/api-key
2-在 n8n 中设置LlamaParse 凭据
获取 LlamaParse API 密钥后,创建一个 Header Auth Credential,我们可以在 n8n 工作流中调用 LlamaParse API 时使用它。
- 在 Value 输入框中输入 "Bearer " 并点击 Save.
3-创建 LlamaParse API 工作流
由于 n8n 没有内置的 LlamaParse 节点,我们需要通过 Http 请求节点才能调用 LlamaParse 的服务。我们只需要进行 3 个 API 调用。
上传PDF 文件:调用 API 将 PDF 文件上传至 LlamaParse 服务。 https://docs.cloud.llamaindex.ai/API/upload-file-api-v-1-parsing-upload-post
查询上传状态:调用 API 查询 PDF 处理作业的状态。如果 PDF 文件较大,此操作可能需要更长时间。 https://docs.cloud.llamaindex.ai/API/get-job-api-v-1-parsing-job-job-id-get
获取解析结果:调用 API 获取 PDF 作业完成后的解析输出。 https://docs.cloud.llamaindex.ai/API/get-job-raw-md-result-api-v-1-parsing-job-job-id-result-raw-markdown-get
需要留意的是,为了避免 api 频繁查询状态,我们建议增加WAIT和SWITCH 节点的搭配,控制API 服务请求速率。
