Dify v1.6.0 更新太狠了!手把手教你玩转 Dify 的 双向MCP 功能

大模型向量数据库云存储

字数 1798,阅读大约需 9 分钟

Dify v1.6.0 调用MCP就是这么方便

picture.image

前言

一大早就收到了邮件,是Dify团队 夏季(6月至今)主要功能更新的总结。

这一版本主题是《双向MCP 》。

picture.image

到底是啥新功能?能直接从v1.5.1 版本直接跳到v1.6.0 呢。

picture.image

迫不及待更新,带大家体验下新功能~

🌟v1.6.0 有哪些新功能🌟

picture.image

完整更新 见dify v1.6.0 日志[1] 和 官方更新发布[2],升级指南 见文末

一句话总结:MCP交互升级,支持双向MCP

两个知识点

  • • 什么是MCP?
  • • 怎么理解双向?

1.1 什么是MCP?

MCP全称 Model Context Protocol (中文名:模型上下文协议),是由 Anthropic 于 2024 年 11 月推出的开源协议。旨在解决不同大语言模型(LLM)与不同外部工具集成的标准化问题

MCP 核心是让大模型能方便地调用多个工具,如本地文件、数据库、各网站数据等。

picture.image

MCP架构和流程

1.2 怎么理解双向?

字面意思,有两点:

可以直接从 Dify 调用任何 MCP 服务。[3] 无需局限于现有的 Dify 插件,而是可以利用强大的MCP 服务器。

支持将你的 Dify工作流作为 MCP 服务,无缝集成其他客户端。[4] 使得这些工具能够像原生扩展一样直接与您的 Dify 应用交互。

通俗解释:与己方便 & 与人方便

我方便用别人的MCP,也能够定制自己的MCP,集成给其他客户端使用。

如何使用MCP新功能

了解新功能的特性后,我们来学习下,在Dify v1.6.0 中如何使用MCP。

  • • 如何配置MCP服务
  • • 如何在Agent 和 工作流应用中使用MCP

先看下,老版本Dify的MCP调用流程 是这样:

MCP SSE插件--授权--服务配置挤在一行里

picture.image

2.1 配置MCP服务

v1.6.0新版本的MCP调用姿势可就多了

  • • 工具页 新增MCP
  • 配置MCP服务 有单独的弹窗
  • 授权完毕 还能显示MCP服务的详细工具列表
  • 配置成功 就能在Agent/工作流等应用中无缝连接啦!🎉

如图所示,配置一个可视化图表-MCP 为例

picture.image

其中,MCP 服务的URL、名称怎么写?

来到 魔塔的MCP广场[5] ,搜索所需MCP服务

picture.image

打开一个服务页面,将右侧的服务配置的URL和名称填到对应位置。

功能列表中列举的就是授权成功后能看到的详细工具。

picture.image


至此,完成一个 MCP服务配置 ! 🎉

下面来看下MCP服务可以在哪里使用。

2.2 在Agent中使用MCP

先创建“Agent”应用

picture.image

第1步 :在工具一栏,添加配置成功的MCP服务 。配置成功,默认打开所有功能,按需关闭/开启。
第2步编写提示词


 
 
 
 
   
你是一个智能代理,连接到"mcp-server-chat"并访问25个API工具。根据用户意图灵活创建各种类型的图表。

第3步 :开始对话

  • • 示例1:饼图

 
 
 
 
   
电商用户年龄分布(10万样本)  
示例数据  
{  "18-25": 32.5,    
"26-35": 41.2,    
"36-45": 18.7,    
"46+": 7.6}    
生成pie图
  • • 示例2:思维导图

 
 
 
 
   
需求:梳理某社交APP的核心功能模块  
示例数据  
核心节点:社交功能 → 即时通讯 → 群聊管理  
用户成长 → 等级系统 → 勋章体系    
生成mind-map图表

picture.image

2.3 在工作流中使用 MCP

先创建“Chatflow”应用

picture.image

picture.image

步骤如下:

    1. 新增“Agent”节点
    1. 安装插件
    1. 选择策略
    1. 配置模型
    1. 添加工具
    1. 系统指令
    1. 查询:用户发送的 query

系统指令参考:


 
 
 
 
   
你是一个智能代理,连接到"mcp-server-chat"并访问25个API工具。根据用户意图灵活创建各种类型的图表。

详细Agent策略配置[6]参考

虽然工作流中使用MCP,也能将“mcp工具” 作为单个节点添加,但你不知道要列举哪些工具的话,可以通过“AGENT”节点,一次性全部添加。

配置完成,得到这样的一个Agent节点。

picture.image

完整工作流如下所示:

picture.image

就可以开始对话,并发布使用啦!

picture.image

2.4 将 Dify 应用发布为 MCP 服务器

前面我们完成了 如何使用别人的MCP,这一节教大家如何定制MCP给其他客户端使用。

任何 Dify 代理或工作流都可以作为标准 MCP 端点进行暴露:

服务描述 :简洁地说明工作流的功能,以便外部 LLMs 知道何时调用它。

参数描述 :在起始节点处记录每个输入,以确保客户端传递正确的值。

打开一个chatflow应用,先点击发布。

以之前创建的“文件对话”的工作流(这是一个跟知识库文件对话的工作流)为例:

    1. 点击应用编排页面左上角,新增了一个板块 MCP服务
    1. 编写服务描述,点击 启用MCP服务
    1. 看到绿灯亮起,说明运行成功,得到一个MCP服务的 URL (其他终端访问需要)

picture.image

如果在 开始 节点有必填参数,启用MCP服务还需配置 参数

picture.image

以CherryStudio为例,访问上面创建的MCP服务

第1步 :创建MCP服务器,点击保存,让绿灯亮起,表示创建成功。

picture.image

第2步 :在对话页面,选择一个MCP服务,直接对话就能使用“文件对话”MCP服务

picture.image

这样,我们就实现了dify工作流 向 MCP服务的转变,便于第三方终端使用。

Cursor、Trae、VScode等终端一样的配置,也能用上mcp。这里就不截图了。

升级指南

Docker Compose 部署

最后为方便各位小伙伴,顺便贴下官网代码

    1. 备份您的自定义 docker-compose YAML 文件(可选)

 
 
 
 
   
cd docker  
cp docker-compose.yaml docker-compose.yaml.$(date +%s).bak
    1. 从主分支获取最新代码

 
 
 
 
   
git checkout main  
git pull origin main
    1. 停止服务,请在docker目录下执行

 
 
 
 
   
docker compose down
    1. 备份数据

 
 
 
 
   
tar -cvf volumes-$(date +%s).tgz volumes
    1. 升级服务

 
 
 
 
   
docker compose up -d

写在最后

📚Dify v1.6.0 正式集成 MCP 功能,使得构建更加灵活、开放的 AI 应用架构,标志着Dify扩展能力上的重大突破,是迈向开放生态的重要里程碑。

Dify双向 MCP 支持,意味着它既是“使用者 ”,也是“提供者 ”。
如果说 MCP 是像 USB-C接口 ,那么现在的 Dify ,就是那个既可以充电、也能给别人充电的“智能终端”。

🌱这,就是真正的开放与互联。


毕竟 Dify更新飞快。

如果是生产环境,且有必要更新的小伙伴,务必做好备份。

非生产环境建议更新体验 v1.6.0~

各位小伙伴学会使用了吗?

实践出真知,与君共勉~

引用链接

[1] dify v1.6.0 日志:https://github.com/langgenius/dify/releases
[2]官方更新发布:https://newreleases.io/project/github/langgenius/dify/release/1.6.0
[3]可以直接从 Dify 调用任何 MCP 服务。:https://docs.dify.ai/en/guides/tools/mcp
[4]支持将你的 Dify工作流作为 MCP 服务,无缝集成其他客户端。:https://docs.dify.ai/en/guides/application-publishing/publish-mcp
[5]魔塔的MCP广场:https://www.modelscope.cn/mcp
[6]Agent策略配置:https://docs.dify.ai/zh-hans/guides/workflow/node/agent#%E9%80%89%E6%8B%A9-agent-%E7%AD%96%E7%95%A5

picture.image

picture.image

点击下方卡片 关注我们

picture.image

  
📢【三连好运 福利拉满】📢  
  
🌟 若本日推送有收获:  
👍 点赞 → 小手一抖,bug没有  
📌 在看 → 一点扩散,知识璀璨  
📥 收藏 → 代码永驻,防止迷路  
🍻 分享 → 传递战友,功德+999  
🔔 关注 → 关注“AI早高峰”,追更不迷路,干货永同步  
  
💬 若有槽点想输出:  
👉 评论区已铺好红毯,等你来战!  

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
火山引擎大规模机器学习平台架构设计与应用实践
围绕数据加速、模型分布式训练框架建设、大规模异构集群调度、模型开发过程标准化等AI工程化实践,全面分享如何以开发者的极致体验为核心,进行机器学习平台的设计与实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论