TRAE + Milvus MCP,现在用自然语言就能搞定向量数据库部署了!

向量数据库大模型机器学习

picture.image

本文作者:尹珉,Milvus 北辰使者,Vibe Coding 理念的践行者。乐于在开源社区分享知识,将 AI 应用的实践经验与思考付诸笔端,希望与更多开发者一同探索和掌握前沿科技。

TRAE (The Real Al Engineer),字节跳动旗下 AI 编程产品,是一个能理解需求、调动工具、独立完成开发任务的超级 AI 工程师,端到端生成真实软件,为开发者带来本土化的智能编程体验。

近期,Milvus MCP 服务器新增了 SSE(Server-Sent Events)支持。 相比传统的 Stdio 模式,SSE 协议天然适配 IDE 的实时交互需求,让向量数据库的强大检索能力能够直接融入编程工作流。

Milvus 足够专业,但对一些初学者来说,上手会稍有门槛。现在,借助 TRAE + Milvus MCP 的组合,开发者只需使用自然语言指令,即可零门槛快速上手 Milvus,开启高效开发之旅。

picture.image

MCP 如何打通

IDE 与外部工具的“任督二脉”

1. MCP (Model Context Protocol) 核心理念

MCP 是一个开放协议,旨在实现 LLM 应用(如 AI IDE、聊天界面)与外部数据源(如 Milvus )和工具的无缝集成。

picture.image

2. MCP 的两种通信模式

Stdio 模式: 传统的进程间通信方式,通过标准输入输出流交换数据。适合单客户端场景,如 Claude Desktop 这样的桌面应用直接调用本地服务。

SSE 模式: 基于 HTTP 的服务器推送技术,支持实时数据流和多客户端连接。天然契合现代 IDE 的 Web 架构,为通义灵码这样的云端 IDE 提供了更灵活的集成方案。

让向量检索结果能够流式传输到 IDE 界面。

picture.image

实战:手把手教你

TRAE + Milvus (SSE) 无缝集成

1. 环境准备要求

本教程不含 Python3、docker、docker-compose 安装展示,请自行按照官方手册进行配置。

相关官网链接:

  • Milvus官网:

https://milvus.io/docs/prerequisite-docker.md

  • Mcp-server-milvus:

https://github.com/zilliztech/mcp-server-milvus

系统环境配置表:

SSE 模式的核心优势在于其轻量级特性和网络友好性——无需复杂的 WebSocket 握手,直接利用 HTTP 协议即可实现服务器向客户端的实时推送。

picture.image

2. Milvus 简介与安装

Milvus 是由 Zilliz 开发的全球首款开源向量数据库产品,能够处理数百万乃至数十亿级的向量数据,在 Github 获得3万+ star 数量。基于开源 Milvus,Zilliz 还构建了商业化向量数据库产品 Zilliz Cloud,这是一款全托管的向量数据库服务,通过采用云原生设计理念,在易用性、成本效益和安全性上实现了全面提升。

部署环境要求

必要条件:

  • 软件要求:docker、docker-compose

  • CPU:8核

  • 内存:16GB

  • 硬盘:100GB

下载部署文件

  
wget https://github.com/milvus-io/milvus/releases/download/v2.5.12/milvus-standalone-docker-compose.yml -O docker-compose.yml

启动 Milvus 服务

  
#启动服务  
docker-compose up -d  
#检查服务状态  
docker-compose ps -a

picture.image

3. 安装 UV 环境

  
curl -LsSf https://astral.sh/uv/install.sh | sh

或者

  
pip3 install uv -i https://mirrors.aliyun.com/pypi/simple

安装完成之后,我们需要对 UV 进行验证。

  
uv --version
  
uvx --version

picture.image

4. 下载并启动 mcp-server-milvus 项目:

https://github.com/zilliztech/mcp-server-milvus

Clone 项目到本地

  
clone https://github.com/zilliztech/mcp-server-milvus.git
  
cd mcp-server-milvus

SSE 模式启动 mcp

说明:刚才部署好的 Milvus 服务的 URI 填入启动

  
uv run src/mcp\_server\_milvus/server.py --sse --milvus-uri http://192.168.7.147:19530 --port 8000

5. 安装 TRAE

下载版本并安装

picture.image

初始化 IDE

第一步:点击开始

picture.image

第二步:选择主题和语言

picture.image

第三步:导入配置

picture.image

第四步:添加 TRAE 相关的命令行(可跳过)

picture.image

第五步:登录账号

picture.image

配置MCP服务

点击右上角选择 MCP

picture.image

选择添加

picture.image

选择手动配置

picture.image

手动添加 mcp-server-milvus 服务

说明:服务地址是本地部署 mcp 所在的服务器或电脑的 ip 地址

  
{    
"mcpServers": {      
  "milvus-sse": {        
    "url": "http://192.168.8.157:8000/sse"      
  }  
 }  
}

picture.image

picture.image

6. 创建 milvus 智能体

说明:智能体(Agent)是你面向不同开发场景的编程助手。

picture.image

选择刚才配置的 milvus-mcp 服务

picture.image

picture.image

7. 使用智能体和milvus进行对话用自然语言和 milvus 进行对话查询

  
帮我创建一个叫做 milvus\_yyds的 collection,包含一个主键 id 和一个向量字段 embedding,维度是 768。

picture.image

  
帮我查询milvus\_yyds这个collection的详细信息

picture.image

picture.image

写在结尾

TRAE 与 Milvus 的 MCP 集成展现了现代 AI 开发工具链的核心趋势——让企业私有知识库无缝嵌入到 IDE 中。这种集成不仅提升了 AI 编码助手的上下文理解能力,更重要的是为开发者构建了从“辅助编码”到“协同创造”的桥梁。

mcp-server-milvus 的核心价值在于其通用性与开放性,它为标准化的MCP协议提供强大支持,让 TRAE 等AI开发工具都能通过统一方式接入 Milvus,赋能开发者实现知识增强的智能编程体验。

随着 MCP 生态的不断完善,AI IDE 也将从单纯的代码生成工具演进为具备企业级知识理解能力的智能开发伙伴。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论