Dify Agent 驱动轻量级 MCPserver:联动 Zapier 实现智能搜索高效数据流转

大模型向量数据库数据库管理服务
1.MCP Server

MCP Server(模型上下文协议服务器)是一种基于模型上下文协议(Model Context Protocol,简称MCP)构建的轻量级服务程序,旨在实现大型语言模型(LLM)与外部资源之间的高效、安全连接。MCP协议由Anthropic公司于2024年11月开源,其核心目标是解决AI应用中数据分散、接口不统一等问题,为开发者提供标准化的接口,使AI模型能够灵活访问本地资源和远程服务,从而提升AI助手的响应质量和工作效率。

MCP Server 的架构与工作原理

MCP Server 采用客户端-服务器(Client-Server)架构,其中客户端(MCP Client)负责与服务器建立连接,发起请求,而服务器端则处理请求并返回响应。这种架构确保了数据交互的高效性与安全性。例如,客户端可以向服务器发送请求,如“查询数据库中的某个记录”或“调用某个API”,而服务器则根据请求类型,调用相应的资源或工具,完成任务并返回结果。

MCP Server 支持动态发现和实时更新机制。例如,当新的资源或工具被添加到服务器时,客户端可以自动感知并使用这些新功能,从而提高系统的灵活性和扩展性

MCP Server 的主要功能

  • 资源暴露与工具提供

MCP Server 可以将本地文件、数据库、API等资源作为数据实体暴露给AI模型,同时提供工具功能,帮助AI完成复杂任务,如数据检索、内容生成、实时更新等。例如,它支持对MySQL、PostgreSQL等数据库的查询和操作,也支持对本地文件系统的读写和目录管理。

  • 会话管理与动态通知

MCP Server 能够管理客户端与服务器的连接,确保会话的时效性和稳定性,同时通过实时推送机制,将最新的资源信息及时传递给AI模型,以保证数据的准确性和实时性。

  • 安全性与隐私保护

MCP Server 采用加密认证和访问控制机制,确保数据传输的安全性,避免敏感信息泄露。例如,它支持本地运行,避免将敏感数据上传至第三方平台,从而保护用户隐私。

  • 标准化与模块化

MCP Server 提供了标准化的通信协议,支持两种传输协议(STDIO和SSE),并允许开发者通过插件扩展功能,使其具备灵活性和扩展性。例如,它支持通过HTTP标准POST请求与客户端进行交互,同时支持WebSocket实现实时数据推送。

  • 多场景应用
  • • 本地资源集成:如文件操作、数据库管理、API调用等。
  • • 云服务交互:如与GitHub、Slack、Google Drive等云服务的集成。
  • • AI助手扩展:如为ChatGPT等AI助手提供上下文支持和工具调用能力

目前mcp-server发展速度非常快,目前mcp-server已经发展超过7000个mcp-serve

picture.image

在这里插入图片描述

2.Dify-Agent

Dify是一款开源的大语言模型(LLM)应用开发平台,旨在简化生成式AI应用的开发、集成和部署过程。它结合了后端即服务(Backend as a Service)和LLMOps的理念,为开发者提供了一个直观、模块化且功能丰富的开发环境,使非技术人员也能轻松参与AI应用的定义和数据运营过程。

目前dify 已经更新到1.1.3+ 版本

picture.image

在这里插入图片描述

Agent 节点是 Dify Chatflow/Workflow 中用于实现自主工具调用的组件。它通过集成不同的 Agent 推理策略,使大语言模型能够在运行时动态选择并执行工具,从而实现多步推理。

2.1 配置步骤

添加节点

在 Dify Chatflow/Workflow 编辑器中,从组件栏拖拽 Agent 节点至画布。

picture.image

在这里插入图片描述

选择 Agent 策略

在节点配置面板中,点击 Agent 策略

picture.image

在这里插入图片描述

从下拉菜单选择所需的 Agent 推理策略。Dify 内置了 Function Calling 和 ReAct 两种策略,可在 MarketplaceAgent 策略 分类中安装使用。

picture.image

在这里插入图片描述

Function Calling

通过将用户指令映射到预定义函数或工具,LLM 先识别用户意图,再决定调用哪个函数并提取所需参数。它的核心是调用外部函数或工具,属于一种明确的工具调用机制。

优点:

  • 精确: 对于明确的任务,可以直接调用相应的工具,无需复杂的推理过程。
  • 易于集成外部功能: 可以将各种外部 API 或工具封装成函数供模型调用。
  • 结构化输出: 模型输出的是结构化的函数调用信息,方便下游节点处理。

picture.image

在这里插入图片描述

ReAct (Reason + Act)

ReAct 策略使 Agent 交替进行思考和行动:LLM 首先思考当前状态和目标,然后选择并调用合适的工具,工具的输出结果又将引导 LLM 进行下一步的思考和行动,如此循环,直到问题解决。

优点:

  • 有效利用外部信息: 能够有效地利用外部工具获取信息,解决仅靠模型自身无法完成的任务。
  • 可解释性较好: 思考和行动的过程是交织的,可以一定程度上追踪 Agent 的推理路径。
  • 适用范围广: 适用于需要外部知识或需要执行特定操作的场景,例如问答、信息检索、任务执行等。

picture.image

在这里插入图片描述

配置节点参数

选择 Agent 策略后,配置面板会显示对应的配置项。Dify 官方内置的 Function Calling 和 ReAct 策略的配置项包括:

模型: 选择驱动 Agent 的大语言模型。

工具: 工具的使用方式由 Agent 策略定义,点击 "+" 添加并配置 Agent 可调用的工具。

  • 搜索: 在下拉框中选择已安装的工具插件。
  • 授权: 填写 API 密钥等授权信息后启用工具。
  • 工具描述和参数设置: 提供工具描述,帮助 LLM 理解工具用途并选择调用,同时设置工具的功能参数。

指令: 定义 Agent 的任务目标和上下文。支持使用 Jinja 语法引用上游节点变量。

查询: 接收用户输入。

最大迭代次数: 设定 Agent 的最大执行步数。

输出变量: 提示节点输出的数据结构。

picture.image

在这里插入图片描述

2.2 查看日志

Agent 节点执行过程中将生成详细日志。显示节点执行的总体信息,包括输入和输出、token 开销、耗时和状态。点击 "详情" 查看 Agent 策略执行的每一轮输出信息。

picture.image

在这里插入图片描述

3.插件类型

picture.image

在这里插入图片描述

  • Models(模型)

各类 AI 模型的接入插件,支持模型服务商和自定义模型两种类型,能够极大降低配置和调用 LLM API 的门槛。

  • Tools(工具)

工具指的是能够被 Chatflow / Workflow / Agent 类型应用所调用的第三方服务。提供完整的 API 实现能力,用于增强 Dify 应用的能力。

  • Agent 策略

Agent 策略插件能够定义 Agent 节点内部的推理和决策逻辑,包括 LLM 对于工具选择、调用以及对返回结果的处理逻辑。

  • Extensions(扩展)

仅提供 Endpoint 能力,为简单场景设计的轻量级方案。仅通过调用 HTTP 服务即可调用扩展功能,适用于只需要基础 API 调用的简单集成场景。关于扩展插件的开发详情,请参考快速开始:Extension 插件。

  • Bundle(插件包)

插件包是一系列插件的组合。通过安装插件集可以批量安装预选插件,告别手动逐个安装插件的繁琐过程。

点击:安装与使用插件参考手册

  1. MCP SSE+Zapier =================

安装一个插件叫做MCP SSE . 可以在 插件市场搜索 MCP 检索到这个插件

picture.image

在这里插入图片描述

如果直接安装安装不上可以:先下载到本地在安装(点击详情)

picture.image

在这里插入图片描述

Zapier MCP 配置

Zapier 是一种基于云的自动化工具,旨在通过连接不同的应用程序和服务来简化工作流程,提高生产力。用户无需编程知识即可创建自动化任务,这些任务被称为“Zaps”。每个 Zap 包含两个核心部分:触发器(Trigger)和动作(Action)。触发器是启动自动化流程的事件,例如在某个应用中接收到新消息;动作则是在触发器发生后执行的操作,例如将数据同步到另一个应用。

Zapier 支持超过 7000 个应用程序的集成,包括电子邮件、社交媒体、文件管理、营销和数据分析等领域的应用。用户可以通过直观的界面轻松设置自动化工作流,例如将 Google 表单中的数据自动保存到 Dropbox 或通过 Slack 发送提醒此外,Zapier 还提供高级功能,如条件逻辑、数据格式化和多步骤路径,使用户能够构建复杂的工作流。

首先我们需要登录https://zapier.com/app/login ,如果没有账号的小伙伴可以去注册一个。

picture.image

在这里插入图片描述

登录后我们在zapier 管理平台 创建一个MCP Server URL:https://actions.zapier.com/settings/mcp/

picture.image

在这里插入图片描述

  • • 开通 增加MCP actions

点击 “Add a new action” ,进行授权

picture.image

在这里插入图片描述

picture.image

在这里插入图片描述

picture.image

在这里插入图片描述

更多tools授权就不展示了

mcp see 配置

我们回到 dify工作流,选择mcp see工具,进行授权,填写获取到的key

picture.image

在这里插入图片描述


 
 
 
 
   
{  "server\_name": {    "url": "https://actions.zapier.com/mcp/sk-ak-xxxxx/sse",    "headers": {}, "timeout": 60,    "sse\_read\_timeout": 300  }}
  • • 配置好后去创建一个Agent看看效果:

picture.image

在这里插入图片描述

  • • 或者chatflow

picture.image

在这里插入图片描述

picture.image

在这里插入图片描述

  • • 提示词

 
 
 
 
   
# 1. 角色  
你是智能搜索任务 Agent,专注于高效、准确完成用户的信息检索需求,以简洁明了的方式提供可靠答案。  
# 2. 能力  
需求解析:精准理解用户查询的核心目标(如数据查询、资料收集、事实验证等)。  
多源搜索:支持调用搜索引擎(MCP服务、DuckDuckGo搜索)等工具获取信息。  
信息处理:筛选有效内容,整合矛盾信息,剔除过时或错误数据。  
结构化输出:按用户要求的格式(如列表、表格、摘要)呈现结果,附信息来源。  
# 3. 工作流程  
接收任务:明确用户查询的具体内容(如 “查找 2024 年全球新能源汽车销量数据”)。  
需求拆解:提取关键词(如 “2024”“新能源汽车”“销量”“全球”),确定搜索范围和优先级。  
工具调用:使用指定工具(如搜索引擎、行业报告平台)执行搜索,记录原始链接。  
结果处理:验证信息一致性,合并重复内容,标注关键数据(如时间、来源、数据值)。  
反馈答案:按 “结论 + 关键信息 + 来源” 的结构输出,确保简洁易懂。  
# 4. 工具调用要求(核心指令)  
优先使用:用户指定的工具(若无指定,默认调用主流搜索引擎 )。  
实时性:涉及数据类查询(如销量、政策)需优先检索近 1 年内的最新信息。  
准确性:引用官方机构(如政府网站、国际组织、知名企业财报)或可信媒体来源,避免非认证平台内容。  
去重与验证:对多来源信息交叉验证,矛盾内容需标注差异并说明可信度较高的一方。  
禁用行为:不生成无依据的推测,不添加与搜索目标无关的扩展内容。  
  
# 结构化输出  
  
【核心结论】    
1. 结论1(信源:XXX,发布时间:XXX)    
2. 结论2(信源:XXX,发布时间:XXX)    
【详细分析】    
▶ 维度1:...(数据/事实支撑)    
▶ 维度2:...(对比/趋势分析)    
【补充说明】    
- 争议点:...(若有)    
- 建议下一步搜索方向:...(若信息不完整)    
  
特殊需求处理:如需表格 / 图表,使用 Markdown 格式简化呈现(如价格对比表、时间轴);如需翻译,优先保留原文链接并附关键信息翻译。  
  

  • • 结果

 
 
 
 
   
【核心结论】  
  
DeepSeek-V3 正式发布(信源:DeepSeek API 文档,发布时间:20241226日)  
  
采用自研 MoE 架构,6710亿参数,激活370亿参数,预训练数据量14.8T token。  
多项评测超越开源模型(如 Qwen2.5-72B、Llama-3.1-405B),性能接近闭源顶级模型 GPT-4o 和 Claude-3.5-Sonnet。  
DeepSeek-R1 推理模型上线(信源:DeepSeek 官网,发布时间:2025120日)  
  
对标 OpenAI 的 Model o1,专注逻辑推理和问题求解,支持强化学习优化。  
【详细分析】  
▶ 技术亮点  
  
架构创新:V3 采用混合专家模型(MoE)和多头潜在注意力(MLA),显著提升推理效率。  
成本优势:训练成本仅557万美元,API 定价为每百万输入 token 0.5元(缓存命中)/2元(未命中)。  
▶ 性能对比  
  
在知识类任务(MMLU、GPQA)接近 Claude-3.5-Sonnet,代码能力(Codeforces)领先非 o1 类模型。  
中文能力与 Qwen2.5-72B 相当,事实检索(C-SimpleQA)更优。  
【补充说明】  
  
争议点:V3 暂不支持多模态输入输出。  
建议下一步搜索方向:DeepSeek-V3 与 GPT-4o 的详细基准测试对比。
0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
vivo 容器化平台架构与核心能力建设实践
为了实现规模化降本提效的目标,vivo 确定了基于云原生理念构建容器化生态的目标。在容器化生态发展过程中,平台架构不断演进,并针对业务的痛点和诉求,持续完善容器化能力矩阵。本次演讲将会介绍 vivo 容器化平台及主要子系统的架构设计,并分享重点建设的容器化核心能力。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论