1.前言
MCP Server(模型上下文协议服务器)是一种基于模型上下文协议(Model Context Protocol,简称MCP)构建的轻量级服务程序,旨在实现大型语言模型(LLM)与外部资源之间的高效、安全连接。MCP协议由Anthropic公司于2024年11月开源,其核心目标是解决AI应用中数据分散、接口不统一等问题,为开发者提供标准化的接口,使AI模型能够灵活访问本地资源和远程服务,从而提升AI助手的响应质量和工作效率。
上期手把手带大家手搓一个MCP-server 实现一个最简单的加法计算器的MCP-server. 对上期文章不太了解的小伙伴可以看我之前的文章
《mcp-server案例分享-手搓一个MCP-server,手把手教你从本地开发到云部署全流程实战》
昨天025年6月11日,火山引擎 FORCE 原动力大会开发者专场将围绕大模型技术创新、AI云原生、Agent开发、多模态模型、AIoT硬件及行业应用等前沿领域展开。字节豆包大模型1.6发布,会上介绍了豆包大模型1.6版本模型的能力。今天我们使用豆包最新发布的文生视频、文生图片等模型带大家搓一个文生图、文生视频、图生视频的MCP-server。
我们看一下这个MCP-server 实现的效果。
文生图片
我们下载打开生产的图片
文生视频
生成的视频效果
019
那么这样的文生图、文生视频、图生视频是MCP-Server是如何制作的呢?
话不多说下面带大家实现这个MCP-Server.
如果大家懒的看文章,我们这里也提供的一个文章的播客,感兴趣小伙伴也可以先听一下这个播客。