字数 6568,阅读大约需 33 分钟
写在前面
你的大模型停留在" 思想的巨人,行动的矮子 "阶段吗?
你在使用大模型时,想让它读写本地文件、直接操作数据库吗?
你让它写了一段画图代码,却还得自己手动运行才能看到图表?对话n轮才能得到心仪的图表吗?
根本原因在于——大模型缺乏对工具和环境的“操作权 ”。
而 MCP (M odel C ontrol P rotocol) 应运而生,让大模型从”光说不做 “到”边说边做 “,实现从“嘴强王者 “到“优秀工具人 ”的完整闭环。
在这篇MCP从0到1 的万字长文中,将带你全面了解MCP的定义、架构原理,并通过多个实战案例手把手教你如何落地使用。
最后,我们还会厘清MCP与Function Calling、Agent等概念之间的关键区别,帮你构建清晰的认知框架。
MCP从0到1
定义和定位
定义 :MCP
全称 Model Context Protocol (中文名:模型上下文协议),是由 Anthropic 于 2024 年 11 月推出的开源协议。
定位 :旨在解决不同大语言模型(LLM)与不同外部工具集成的标准化问题 。通过MCP,开发者能够以一种统一的方式 将各种数据源和工具连接到 AI 大模型,从而提升大模型的实用性和灵活性。
(简而言之:让开发者不用重复造轮子,通过MCP
协议,以期构建更强大的 AI Agent 生态。
MCP架构和流程
用一张更常见的图来说明
MCP
就像是⼀个“通⽤插头”或者“USB接⼝”,制定了统⼀的规范,不管是连接数据库、第三⽅API,还是本地⽂件等各种外部资源,都可以通过这个“通⽤接⼝”来完成,让AI模型与外部⼯具或数据源之间的交互更加标准化、可复⽤。
目前,MCP 生态已经得到了广泛的支持,包括 Anthropic 的 Claude 系列、OpenAI 的 GPT 系列、Meta 的 Llama 系列、DeepSeek、阿里的通义系列以及 Anysphere 的 Cursor 等主流模型均已接入 MCP 生态。
架构设计
MCP 采用了客户端-服务器
架构,主要包括以下三个核心组件和数据资源:
- • MCP Host(主机) :可以理解为用户可操作的界面,例如Cursor、Trae、CherryStuido
- • MCP Client(客户端) :一般内置于Host中,负责链接Host和Server端,发送请求并接收响应,进行消息的相互传递。
- • MCP Server(服务器) :负责接收Client传来的指令,和周边系统(网络、数据库等等)进行互动,完成特定的任务,并将结果反馈给Client端。
- • 数据资源 :MCP 服务器可访问两类数据源:
- • 一类是
本地
数据源,即用户计算机上存储和管理的数据,使用的是
STDIO协议
。 - • 一类是
远程
服务,例如通过 Web API 获取的外部数据,这使得 AI 应用能够直接访问互联网数据。使用的是
SEE协议
。
工作原理
MCP 核心是让我们能方便地调用多个工具,那随之而来的问题是 LLM(模型)是在什么时候确定使用哪些工具的呢? Anthropic
为我们提供了详细的解释,当用户提出一个问题时:
- • 客户端(Claude Desktop / Cursor)将问题发送给 LLM。
- • LLM 分析可用的工具,并决定使用哪一个(或多个)。
- • 客户端通过 MCP Server 执行所选的工具。
- • 工具的执行结果被送回给 LLM。
- • LLM 结合执行结果,归纳总结后生成自然语言展示给用户!
更细致的工作流程如下:用户输入要完成的任务或问题
- • 第一步:Host根据用户输入,确定要调用哪个Client;
- • 第二步:Client将用户输入和 一些环境变量 ,传递给Server;
- • 第三步:Server根据Client传递的内容进行任务处理,并将结果反馈给Client;
- • 第四步:Client将结果传递给Host;
- • 第五步(可选):如果有需要,继续重复2到4,调用不同的mcp完成不同的任务;
- • 第六步:Host将重新组装Prompt,传递给大模型;
- • 第七步:大模型完成任务之后,将结果反馈给Host;
- • 第八步:Host将结果展现给用户。
2.1 MCP主机和客户端(Host+Clent)
🎨主机 是协调整个MCP系统的核心:
- • 创建和管理多个客户端实例
- • 控制客户端的连接权限和生命周期
- • 执行安全策略和权限管理
- • 协调AI/LLM的集成和采样
实际上, 主机通常是你使用的AI应用程序 ,如Claude Desktop、Cursor编辑器或其他支持MCP的应用。
在 MCP 官方文档中,我们看到已经支持了 MCP 协议的一些客户端/工具列表
中间5个表头指的是功能,左侧第1列是客户端名称。怎么看表格?拿第2行举例,Claude Code客户端具备“Prompts”和“Tools”能力
从表格里,我们可以看到,MCP 对支持的客户端划分了五大能力,这里我们先简单了解即可:
很显然,Tools 是最最最重要、最广泛的功能,其他功能可以没有,Tools
功能必须有。
才能称之为“支持MCP的客户端 ”。
对于上面这些已经支持 MCP 的工具,其实是这么几类:我只用过这几个~
🎨客户端(Client) 由主机创建,维护与一个服务器的连接:
- • 与一个特定服务器建立一对一的会话
- • 处理协议协商和能力交换
- • 在服务器和主机之间双向传递消息
2.2 MCP 服务器(Server)
🎨 服务器 提供专门的功能和数据:
- • 通过MCP原语公开资源、工具和提示模板
- • 独立运行,专注于特定责任
- • 可以是本地进程或远程服务
这是你将要构建的部分,用于让AI访问你的特定数据或功能。
常见的 MCP Server 有:
- • 文件和数据访问类 :让大模型能够操作、访问本地文件或数据库,如 File System MCP Server;
- • Web 自动化类 :让大模型能够操作浏览器,如 Puppeteer MCP Server;
- • 三方工具集成类 :让大模型能够调用三方平台暴露的 API,如 高德地图 MCP Server;
看到这,相信各位小伙伴还是一脸懵逼,我举个例子吧!
我在 VSCode 中配置了 12306 的 MCP 服务(JSON),在对话(查车票信息)时调用了这个 MCP 服务。
🧠谁是Host?谁是Client?谁是Server?
我们来拆解一下:
| 角色 | 是谁 / 在哪里 | | MCP 主机(Host) | VSCode + 支持 MCP 的插件(cline) | | MCP 客户端(Client) | 由 VSCode 创建的一个客户端实例,用于连接 12306 的通信通道(虽然你看不到它,但它在后台运行) | | MCP 服务器(Server) | 12306 提供的 MCP 服务(即你配置的那个 JSON 对应的服务) |
这样一目了然了吧!
以下查找 MCP Server 的网站
- • 官方的 MCP Server[1] 集合 Github 仓库:https://github.com/modelcontextprotocol/servers
- • MCP.so[2] :https://mcp.so
- • MCP Market[3] :https://mcpmarket.cn
- • smithery[4] :https://smithery.ai
- • 魔塔MCP广场[5] :https://www.modelscope.cn/mcp
- • Claude MCP[6] :https://www.claudemcp.com/zh/servers
官方的 MCP Server
mcp.so
mcpmarket
smithery
魔塔
2.3 在哪用
认识以上概念后,具体如何使用MCP呢?在哪用呢?
一种是直接使用,一种是开发使用。
不同的使用目的,决定了你用哪种软件。
2.3.1 直接使用
我们可以在大模型对话软件中直接使用MCP
Claude
网址:https://claude.ai/downloadClaude
作为 Anthropic 公司的产品,MCP 都是它提出来的,肯定是首推的,但是不推荐。 2. 2. CherryStudio
网址:https://docs.cherry-ai.com(推荐)
对于一些没有办法用到国外产品的,可以考虑一下这个工具。官方也准备了 MCP教程[7] 。
2.3.2 开发使用
我们还可以通过编程工具基于MCP做开发、辅助AI编程等等
Cursor
网址:https://www.cursor.com/cn(推荐) cursor 对 mcp 支持的不错,推荐使用 2. 2. Trae
国际版:https://www.[trae.ai](https://www.trae.ai)
国内版:https://www.[trae.cn](trae.cn) 3. 3. VSCode 的插件
Cline、Roo-code(cline 分支)
2.4 怎么用?(附实战案例)
使用 现成的mcp 常规三步走:
找 :在MCP Server 网站(见 2.2 MCP服务器 中所列),查找所需MCP服务。
配 :在客户端(见 2.1 MCP主机和客户端 中所列)中配置MCP服务,通常只需填写API密钥或简单设置。
用 :最后在提示词中输入调用mcp的相关指令,大模型会自动调用对应MCP服务来完成任务。
啥是现成的MCP ?
以魔塔为例
- • 左上角显示 " Hosted " 服务类型的是 现成的mcp ,直接食用,可能需要申请API-KEY等即可;
- • 左上角显示" Local " 服务类型的是 需要 本地部署的mcp ,按使用文档配置才可食用。
至此,我们学会了什么是MCP主机、客户端,什么是MCP服务器,以及在哪用,怎么用。
接下来,我们通过 三个实战案例 来带你真正上手MCP,看看它在不同工具中的具体应用:
- • 案例1(CherryStudio) :让大模型帮你 自动爬取网页内容
- • 案例2(Trae) :大模型不仅能爬网页,还能 把内容保存到本地文件
- • 案例3(Cursor) :让AI帮你 生成可视化图表 ,提升数据分析效率
2.4.1 案例1:爬取网页内容
步骤1:安装 uv、bun
在
设置 - MCP服务器
中,点击
安装
按钮,即可自动下载并安装。
步骤2:配置和使用 MCP
-
- 点击
添加服务器
。
- 点击
-
- 将 MCP Server 的相关参数填入( 参考链接[8] )。
-
- 两种方式【See】和【Studio】
1)方式1【See】 。参照魔塔MCP的服务配置,填写如下内容:
- • 名称:自定义一个名称,如
fetch
- • 类型:选择
See
- • URL:填写 https://mcp.api-inference.modelscope.net/9fe6604ff681xx/sse (改为魔塔MCP自己的URL)
魔塔MCP的服务配置,如下所示
2)方式2【uvx】 。参照fetch-github[9] 或 fetch-mcp.so[10],填写如下内容:
- • 名称:自定义一个名称,如
fetch
- • 类型:选择
studio
- • 命令:
uvx
- • 参数:
mcp-server-fetch
fetch官网和mcp.so中的服务配置,如下所示
步骤3:使用mcp
在聊天框中启用 MCP 服务,选择已启动的 MCP 服务器。
使用效果展示
从上图可以看出,结合了 MCP 的 fetch
功能后,Cherry Studio 能够更好地理解用户的查询意图,并从网络上获取相关信息,给出更准确、更全面的回答。
2.4.2 案例2:网页+本地文件
Trae 或 VScode需借助Cline插件,可以使用MCP。
使用方式有两种:在市场中搜索并安装服务,或编写服务MCP服务
① 安装服务
② 编写服务
关于”filesystem“ 服务,args的第三个参数是你的本地路径
配置好服务后,就能发起对话了
示例提示词:
读取网页内容,保存至“台风丹娜丝.md”中。https://news.qq.com/rain/a/20250707A0780700
看起来只是简单的一句话,但背后其实触发了两个MCP服务:
一是从网页抓取内容 ,二是将结果写入本地Markdown文件 。
模型无需你手动编码,就能自动调用对应工具,完成从数据获取到存储的全流程。
这就是MCP的强大——让AI真正“动手”帮你完成具体操作。
2.4.3 案例3:AI可视化图表
步骤1. 查找MCP配置
先来看到魔塔的Antv可视化图表-MCP-Server[11]配置,这个mcp服务支持 20 多种图表
步骤2:配置mcp服务
右侧箭头所指处即是服务配置,我们要将它粘贴到 Cursor
中:
-
- 点击右上角设置⚙️,进入Cursor Settings
-
- 在
Tools & Integrations
的MCP Tools
点击添加
- 在
-
- 跳转至
mcp.json
配置文件,把Antv-mcp
的配置粘贴到此处
- 跳转至
-
- 看到绿灯亮起,表示该项服务配置成功🎉
步骤3:使用MCP服务
在对话页面直接使用。
示例提示词:
零售门店分布需求:可视化某品牌全国500家门店位置
按销售额分级标记数据字段:门店ID, 经度, 纬度, 销售额, 城市等级
模拟数据生成一个district-map
生成图表如下
某品牌全国500家门店销售额分布(来源:Antv-MCP服务)
示例调用的是generate\_district\_map
,作用是:生成行政区划地图
你还可以使用该服务中的其他工具,如:
generate\_area\_chart
: 生成
面积
图表,用于显示连续自变量下的数据趋势,便于观察整体数据趋势。
generate\_bar\_chart
: 生成
条形
图表,用于比较不同类别的值,适合水平比较。
generate\_flow\_diagram
: 生成
流程图
,用于显示过程中的步骤和顺序。
generate\_radar\_chart
: 生成
雷达
图表,用于全面显示多维数据。
generate\_word\_cloud\_chart
: 生成
word-cloud
词云图,用于显示文本数据中词语出现的频率
- 更多工具详情见官网
最后,MCP 在 Dify中的使用也升级了,不知各位升级v1.6.0了吗?
能用现成的MCP,也能让工作流秒变MCP,更多精彩请移步Dify v1.6.0 更新太狠了!手把手教你玩转 Dify 的 双向MCP 功能
在了解了MCP的基本概念和使用方法之后,接下来我们进入一个非常关键的部分:MCP到底和其他我们常用的交互方式有什么不同?
很多人会问:MCP和API、Function Calling、Agent这些概念是不是差不多?在这一章节中,我们将一一对比,讲清楚MCP与它们的本质区别,帮助你更准确地理解MCP的独特价值和适用场景。
MCP和API的区别
先来看看它和最原始API的区别
举个例子,例如:你要开发一个 AI 行程规划助手
用 API 开发 :要单独接入 Google Calendar API、邮件 API、航司 API,每个都要写认证、错误处理
用 MCP开发 :AI 助手可以无缝查询日程、预订航班、发送确认邮件,而无需为每个工具编写特定集成。只接入 MCP 协议,AI 能自动访问这些服务(如:看日历 → 改航班 → 发邮件)
总结一句话 :
MCP 是一个为 AI 而设计的“智能标准连接协议”,让模型能像插 USB-C 一样自由访问各种工具和数据源,而不再受限于一个个麻烦的 API 接口。
MCP和Function Calling的区别
OpenAI 早在2023年06月就推出了 Function Calling ,为大模型提供了工具调用功能。
二者同样是工具调用
,通常被视为同一类技术框架/范式下的不同解决方案 。
那么MCP 是否要取代 Function Calling ?
Function Calling(函数调用) 允许大语言模型(LLM)通过自然语言指令与外部工具和服务进行交互,从而将自然语言转换为具体的 API 调用 。
这一技术解决了大语言模型在训练完成后知识更新停滞的问题,使大模型能够获取实时信息,比如:当前的天气、股市收盘点数等。
工作原理
Function Calling 的工作原理可以通过以下4个步骤来理解:
1、识别需求 :大模型识别出用户的问题需要调用外部 API 来获取实时信息。比如:用户询问“今天北京的天气如何?”大模型会识别出这是一个关于实时天气的问题。
2、选择函数 :大模型从可用的函数库中选择合适的函数。在这个例子中,大模型会选择 get_current_weather 函数。
3、准备参数 :大模型准备调用函数所需的参数。例如:
{
"location": "北京",
"unit": "celsius"
}
3、调用函数 :AI 应用使用这些参数调用实际的天气 API,获取北京的实时天气数据。
4、整合回答 :大模型将获取的数据整合成一个完整的回答,比如:“根据最新数据,北京今天的天气晴朗,当前温度23°C,湿度45%,微风。今天的最高温度预计为26°C,最低温度为18°C。”
工作流程对比
functioncalling.gif
✅ Function Calling工作过程演示
用户输入问题 :用户通过界面或语音输入问题(Query)。
LLM处理 :问题被发送到DeepSeek LLM进行分析和理解。
智能体中枢 :LLM将问题传递给智能体中枢,中枢解析问题意图并生成函数调用请求。
Function Calling注册 :大模型通过微调获得意图理解和参数提取能力,生成格式化的Function请求。
工具执行 :Function Calling实际调用本地数据库或其他服务(如MySQL、RAGI、Web服务等)获取数据。
结果返回 :处理后的结果返回给LLM,并最终输出答案。
mcp.gif
✅ MCP工作过程演示
用户输入问题 :用户通过界面或语音输入问题(Query)。
LLM处理 :问题被发送到DeepSeek LLM进行初步处理。
MCP注册流程 :MCP工具的接口信息(名称、描述、参数)被注册并告知主机。
客户端与服务器交互 :客户端将问题传递给MCP服务器,服务器根据问题调用相应的工具。
工具执行 :MCP Tools实际调用本地数据库或其他服务(如MySQL、RAGI、Web服务等)获取数据。
结果返回 :处理后的结果返回给LLM,并最终输出答案。
🔍MCP相较于Function Calling,核心区别在于引入了客户端-服务器架构 :
客户端发起请求 :用户问题经LLM处理后,由客户端传递至MCP服务器;
服务器协调工具 :MCP服务器统一调用本地工具(如数据库、Web服务),并返回结果;
工具注册机制 :MCP需预先注册工具接口信息至主机,Function Calling则直接通过智能体解析意图生成函数调用,无需显式注册。
这一架构使MCP具备更清晰的职责划分与扩展性,而Function Calling侧重大模型自主解析与执行。
核心特点对比
左图Function Call,右图MCP
OPEN AI 最开始提出这项技术的时候,并没有想让它成为一项标准,所以虽然后续很多模型也支持了
Function Call
的调用,但是各自实现的方式都不太一样。导致了 ”什么样的锅配什么盖“~
而,
MCP
协议是通用的,无需为每个模型与不同资源的对接重复编写适配代码,已经开发出的 MCP Server能够直接开放出来给大家使用,大幅减少了开发者的重复劳动。
✅Function Calling
🧠核心特点
- • 模型专属 :不同模型(GPT/Claude/DeepSeek)的调用规则不同
- • 即时触发 :模型解析用户意图后直接调用工具
- • 简单直接 :适合单一功能调用(如"查北京温度"->调用天气API)
📌 痛点
- • 协议碎片化 :需为每个模型单独开发适配层
- • 功能扩展难 :新增工具需重新训练模型或调整接口
🔍 类比 :不同品牌手机的充电接口(Lightning/USB-C),设备间无法通用
✅MCP
🧠核心特点
- • 协议标准化 :统一工具调用格式(请求/响应/错误处理)
- • 生态兼容性 :一次开发即可对接所有兼容MCP的模型
- • 动态扩展 :新增工具无需修改模型代码,即插即用
📌 核心价值,解决三大问题
- • 数据孤岛 →打通本地/云端数据源
- • 重复开发 →工具开发者只需适配MCP协议
- • 生态割裂 →形成统一工具市场
🔍 类比 :Type-C接口,手机/电脑/外设通过统一标准互联
对比小结
MCP 不是 Function Calling 的替代,而是基于 Function Calling 的工具箱。
很多人误认为,MCP 是对传统 Function Calling 的一种替代。
而实际上,两者并非替代关系,而是紧密合作的关系。
Function Calling 是大语言模型(LLM)与外部工具或 API 交互的核心机制。它是大模型的一个基础能力,就是识别什么时候要工具,可能需要啥类型的工具的能力。
而 MCP 则是工具分类的箱子。因此 MCP 不是要取代 Function Calling,而是在 Function Calling 基础上,联合 Agent 一起去完成复杂任务。
如果把整个工具调用的流程剖析开来,实际是"Function Calling+ Agent + MCP 系统"的组合。
最后用一句话总结:大模型通过 FunctionCalling 表达,我要调用什么工具,Agent 遵循指令执行工具的调用,而 MCP 则是提供了一种统一的工具调用规范。
MCP 并不负责决定使用哪个工具,也不进行任务规划或理解用户意图。这些是 Agent 层面的工作。MCP 只是提供了一个统一的工具接口,成为了产业内认可的工具调用标准协议。
MCP和Agent的区别
流行最广的是前 OpenAI 研究与安全副总裁 Lilian Weng 对 Agent 的定义 :Agent = LLM + Planning + Tools + Memory。
完整定义 :Agent(智能体)是具备自主行动能力的系统 ,包含规划(Planning)、记忆(Memory)、工具(Tools)、执行(Action)四大要素(或称组件),能够执行一系列复杂的任务。
- • LLM 充当代理的大脑
- • 具有 规划 能力:如思维链(CoT)、任务拆解、反思和改进
- • 具有 记忆 :短期和长期记忆
- • 具备 工具 使用能力:通过API、FunctionCall、 MCP 协议等渠道 获取 外部信息,甚至进行 交互 。
Agent架构(左图)和Agent的推理流程(右图)
(左图图片来源: lilianWeng博客[12] ;右图图片来源: KwaiAgents项目[13] )
Agent的推理流程 :Agent规划并执行子任务,利用工具来增强功能,并通过反思行为来学习和改进。通过多个模块的紧密协作,Agent能够有效地分解复杂任务,进行规划和执行,并最终生成解决方案。这种结构化和分步的方法使得复杂问题的处理变得更加清晰和可管理。
更多Agent知识请移步《大模型应用开发:动手做 AI Agent》,后台私信 "0622" 领取
从 Agent定义 中就能知道,Agent是一个系统,MCP是Agent调用工具能力的其中一种方式。
小结
MCP、Function Calling、Agent 区别
从表面上看,这三者似乎功能相似,目的也相近,都是为了弥补大模型的短板。
第一、MCP
MCP(Model Context Protocol)是一种开放协议,旨在提供一个通用的开放标准,用于连接大语言模型(LLM)和外部数据及行为。MCP 运行在本地(至少目前是),由像 Cursor 这样的主机(或统称为终端)调用,可以访问本地资源、个性化的 API 等。
第二、Function Calling
Function Calling 是 AI 模型与外部函数或服务交互的一种机制。在这种模式下,模型生成一个函数调用请求,宿主应用解析该请求并执行相应的操作,然后将结果返回给模型。Function Calling 通常具有以下特点:
- • 同步执行 :调用函数后,程序会等待函数执行完毕并返回结果,才继续执行后续代码。
- • 紧耦合 :模型与函数或服务之间的关系较为紧密,需要在代码中明确指定。
- • 特定实现 :函数调用的实现方式可能因平台或服务提供商而异,缺乏统一标准。
第三、Agent
Agent(智能体)是具备自主行动能力的系统 ,能够执行一系列复杂的任务,比如曾经一码难求 Manus[14]和flowith[15]。Agent 通常具备以下特征:
- • 自主性 :能够根据环境变化和目标自主做出决策。
- • 任务执行 :能够执行多步骤、多环节的任务,往往需要调用多个工具或服务。
- • 集成性 :通常集成多种功能模块,如 MCP 和 Function Calling ,以实现复杂的任务处理。
第四、主要区别
MCP :作为一种协议 ,主要解决模型与外部工具和数据源之间的交互问题,提供标准化的接口和通信方式。它非常灵活,只要遵循标准,几乎能实现任何功能。
Function Calling :是模型与特定函数或服务交互的具体实现方式 ,关注如何在代码层面实现功能调用。它需要大模型和特定客户端紧密绑定,灵活性较低。
Agent :是一个复杂的系统 ,能够自主执行任务,通常需要结合 MCP 和 Function Calling 等机制,以实现复杂的功能。
通过这些对比,我们可以更清晰地理解 MCP、Function Calling 和 Agent 的功能和应用场景。
写在最后
💐恭喜你看到这里!
通过MCP的基本概念到实际使用,再到与Function Calling
和 Agent
的深度对比,我们可以更清晰地理解MCP 在大模型生态系统中的价值。
"MCP " 一定是一个必知必会的概念
没吃过猪肉,也得见过猪跑吧
无论你是 AI 技术爱好者、开发者,看完本篇,至少结合 CherryStudio,动手配置一个简单的MCP吧!
🚀想和志同道合的朋友一起探索更多Dify、MCP场景?欢迎加入 AI早高峰交流群!
引用链接
[1]
官方的 MCP Server:https://github.com/modelcontextprotocol/servers
[2]
MCP.so:https://mcp.so
[3]
MCP Market:https://mcpmarket.cn
[4]
smithery:https://smithery.ai/
[5]
魔塔MCP广场:https://www.modelscope.cn/mcp
[6]
Claude MCP:https://www.claudemcp.com/zh/servers
[7]
MCP教程:https://docs.cherry-ai.com/advanced-basic/mcp/config
[8]
参考链接:https://github.com/modelcontextprotocol/servers/tree/main/src/fetch
[9]
fetch-github:https://github.com/modelcontextprotocol/servers/tree/main/src/fetch
[10]
fetch-mcp.so:https://mcp.so/server/fetch/modelcontextprotocol
[11]
魔塔的Antv可视化图表-MCP-Server:https://www.modelscope.cn/mcp/servers/@antvis/mcp-server-chart
[12]
lilianWeng博客:https://lilianweng.github.io/posts/2023-06-23-agent/
[13]
KwaiAgents项目:https://github.com/KwaiKEG/KwaiAgents
[14]
Manus:https://www.manasai.co/
[15]
flowith:https://flowithcn.com/
点击下方卡片 关注我们
📢【三连好运 福利拉满】📢
🌟 若本日推送有收获:
👍 点赞 → 小手一抖,bug没有
📌 在看 → 一点扩散,知识璀璨
📥 收藏 → 代码永驻,防止迷路
🍻 分享 → 传递战友,功德+999
🔔 关注 → 关注“AI早高峰”,追更不迷路,干货永同步
💬 若有槽点想输出:
👉 评论区已铺好红毯,等你来战!