点击👇关注我 学习更多AI知识
大家好,我是予贝
你的大模型,还在‘裸奔’吗?”
👉 没有实时数据支撑的LLM,就像断网的搜索引擎——回答永远慢半拍、信息可能已过时。
今天,一个叫MCP的协议,正在终结这场混乱。
Anthropic(Claude母公司)最新发布的 Model Context Protocol ,让AI像插U盘一样“即插即用”各类数据源。而国产工具Trae,已经率先支持!
MCP 是一个开放协议,用于标准化应用程序如何向 LLM 提供上下文。
可以将 MCP 想象成 AI 应用程序的 USB-C 接口,就像 USB-C 为设备连接各种外设和配件提供标准化方式一样,MCP 为 AI 模型连接不同的数据源和工具提供了标准化的方式。
MCP 通过提供预构建的集成列表让您的 LLM 直接连接数据和工具,同时支持在不同 LLM 提供商和供应商之间灵活切换,并遵循最佳实践确保数据在您的基础设施中的安全性。
MCP 核心采用客户端-服务器架构,主要组件如下图所示:
MCP 主机 (Host):如 Claude Desktop、Cursor 或 AI 工具,作为用户与 LLM 交互的入口,发起上下文请求。
MCP 客户端 (Client):与服务器保持 1:1 连接的协议适配层,负责请求路由和响应组装。
MCP 服务器 (Server):轻量级程序,通过标准化协议暴露特定功能(如数据查询、工具调用),支持安全访问本地或远程资源。
本地数据源 :包括文件、数据库等受控资源,由 MCP 服务器通过安全通道访问。
远程服务 :如 SaaS API 节点,通过互联网扩展 MCP 的能力边界。
MCP 工作流程:主机发起请求 → 客户端智能路由至服务器 → 服务器访问本地/云端资源 → 返回结构化上下文供 LLM 处理。
了解了 MCP 的基础知识和架构,接下来我们介绍国产 AI 编程工具 Trae 如何连接 MCP
打开 Trae IDE,在软件右上角点击点击 设置 图标 > MCP
进入到 MCP 界面
点击 + 添加 MCP Servers 按钮,将跳转 MCP Server 市场
标有轻松配置的配置较为简单,只需要提供对应的信息即可,我们挑选 Github MCP,只需要输入 Github 的 Access Token, 点击 here 将跳转到 Token 生成界面。
配置完成后点击创建
输入生成的 token,点击确认,及配置完成,出现可使用就可以调用 github 提供的相关功能了
普通 MCP 服务需要将 MCP 服务器介绍页面中的 JSON 配置内容粘贴至输入框中,然后将 env 信息(例如 API Key、Token、Access Key 等字段)替换为真实信息,后续我们将单独介绍各 MCP 的使用方法。
通过 MCP 协议,Trae 等 AI 工具能够以标准化、安全的方式连接多样化的数据源和远程服务(如 GitHub),扩展了 LLM 的上下文处理能力。
未来,随着 MCP 生态的完善和更多适配服务的加入,AI 应用的开发效率与功能边界将进一步提升。
接下来,我们将深入讲解各类 MCP 服务器的具体使用方法,助您充分释放 AI 协作的潜力。
我们坚信AI编程的门槛会变得越来越低,开源了AI编程手册,目前85000多字,包含网站,小程序,APP等多种开发案例,希望对大家有帮助,需要的扫码获取
