近日,火山引擎发布大模型生态广场—— MCP Servers,借助字节跳动生态能力,通过“MCP Market(工具广场)+ 火山方舟(大模型服务)+Trae(应用开发环境)”深度协同,实现工具调用、模型推理到应用部署的全链路开发闭环,助力开发者以 “模块化组装” 模式告别复杂手动开发流程。
火山引擎大模型生态广场MCP Servers的核心架构由三部分组成:
1. MCP Market(工具广场) :“大模型工具超市”,集成了众多高质量的 MCP 协议适配工具,涵盖搜索、数据库、业务系统 API 等高频场景。目前,MCP Market已开源,企业能将自研工具按 MCP 协议封装并上传共享,实现“用生态”与“建生态”的良性循环,让工具资源不断丰富。
2. 火山方舟(大模型服务) :让模型从“被动执行指令”转变为“主动调用资源”解决任务。比如用户规划出差行程,大模型会自动解析 MCP 工具库,调用航班查询工具获取实时信息,联动导航工具规划路线,最后整合输出结果。若航班延误,模型还能及时调整方案(如“建议改签高铁,避免误事”),真正让大模型从“聊天助手”升级为“干活能手”。
3. Trae(应用开发环境) :在 Trae 中开发大模型应用,如同与 AI 组队。开发者输入需求后,Trae 的智能体自动拆解任务并调用适配工具,开发者只需补充约束或指定工具,后续的逻辑串联、接口调试都由 AI 完成,应用完成后还能一键部署,实现“需求输入即开发启动”的高效流程。
作为MCP Servers首批发布的协议适配工具,LAS MCP可以让用户在开发过程中,与AI数据湖服务LAS更好、更快适配。
用户只需在大模型工具广场选择并生成 LAS MCP 的调用方式,随后注册到 Trae,再结合火山方舟的大模型服务,就能快速完成一款数据分析应用的开发工作。
据介绍,火山引擎AI数据湖服务 LAS 孵化于字节跳动大模型业务,能构建新一代AI数据湖,高效存储、管理和处理多模态数据(文本、图像、音视频等),支持数据准备、模型微调等场景。
具备以下特点:
-
支持文本、图像、音视频等多模态数据入湖,采用 Lance、Iceberg 等优化湖格式自动管理存储碎片。
-
提供数据集全生命周期管理,支持数据查询、版本控制及分布式缓存加速。
-
内置 Ray、PySpark 分布式引擎,兼容 CPU/GPU 异构调度,并集成数百个 AI 数据处理算子,支持自定义工作流编排。
作为火山引擎MCP生态的核心数据组件,LAS已与火山方舟大模型平台深度集成,为企业提供从数据准备、模型训练到推理部署的全流程AI数据支撑,在智能媒体、自动驾驶、金融分析等场景中,大幅降低AI应用落地门槛。
点击阅读原文,
了解【AI数据湖服务】更多信息