Web 开发 AI 就选它?V0复合架构无错误率 93.87% 远超 Claude 4 Opus 单体!

大模型向量数据库数据库

🍹 Insight Daily 🪺

Aitrainee | 绿野仙踪

Hi,这里是Aitrainee,欢迎阅读本期新文章。

Vercel 最近在 v0.dev 和 API 里都上了新的 AI 模型:v0-1.5-md、v0-1.5-lg 和 v0-1.0-md。

V0 模型直接进驻 Cursor,UI 生成效果炸裂,氛围编码体验再升级。

今天,他们把 v0 模型背后的"复合模型架构"给扒了。

picture.image

简单说,这套架构就是把 RAG (检索增强生成) 的专业知识、SOTA 大模型的推理能力、再加上一个定制的流式后处理模型来修 bug ,给缝合到了一起。

Vercel 说,这么搞能让 v0 生成代码的质量高出一大截 。而且,以后基础大模型升级了,他们也能快速换上最新的,其他部分保持稳定。

🌱 v0 为啥要搞这么一套"复合模型架构"?不直接用现成大模型吗?

现在市面上的 AI 模型,基本就两种:要么是头部厂商的闭源大模型,要么是第三方托管的开源模型。

Vercel 在做 v0 和 AI SDK 这些产品时发现,这两种路子都有坑:

  1. 模型知识过时快 :特别是对那些快速迭代的技术,大模型很快就跟不上了。

picture.image

当然以前也聊过一些解决方法:

AI 写代码总是翻车?Upstash 创始人怒推 Context7:给 LLM 喂上最新鲜的官方文档。

DeepWiki MCP:免费、远程、一行命令,Agent即刻拥有Github代码库知识! 2. 头部厂商不care特定场景 :人家没那么多精力也没那心思去专门优化"写 Web 应用"这种具体场景。

v0 是专门搞快速、漂亮的全栈 Web 应用的。这就得用上 React、Next.js 这些 不断 进化的框架。闭源大模型几乎是一出来就落后于框架更新了。

开源模型微调倒是灵活点,但目前来看,在 v0 关心的任务上 (尤其是带多模态输入的代码生成),闭源大模型还是吊打开源模型。

而且,头部大模型也没啥动力去专门优化像"自动修 bug"、"快速编辑代码"这种 Web 应用开发特有的需求。结果就是,就算改个小地方,你也得把需求仔仔细细地喂给它。

Vercel 这套"复合模型架构",就是要把这些活儿从基础模型里拆出来。

他们能把一个 SOTA 基础模型,跟专门的数据检索、优化的快速编辑流程、还有定制的 AutoFix 模型组合起来,提升输出质量。

这样一来,就算基础大模型换代了,他们也能无缝升级,不用把整个流程推倒重来。用户通过 API 用 v0 模型,实际上就是在用这整套流水线。

picture.image (v0 复合模型架构图)

🌲 v0 的"复合模型"具体咋工作的?

1. 预处理 (Pre-processing)

你给 v0 发消息后,它会先做好几步准备工作:

  • 系统提示 (System Prompt)

:定义 v0 的响应格式和能力范围。

  • 上下文维护

:把最近的聊天记录带上,保证对话连贯。老的聊天记录会做个总结,优化上下文窗口。

  • RAG 检索

:根据你的问题,从 Vercel 自己的数据集里捞相关信息 (文档、UI 示例、你上传的项目代码、内部知识库等等) 来增强输出。

2. SOTA 基础模型 (State of the art base models)

新内容生成或者大改动,就靠基础模型了。这一般是从当前最顶尖的那波大模型里挑一个,具体用哪个看你选的 v0 模型型号。

小修小改,比如改文字、修语法错误、调整组件顺序,会交给专门优化过速度的 Quick Edit 模型 处理。

因为是复合架构,基础模型可以随时升级替换,整个流程不用重构。比如,v0-1.0-md 现在用的是 Anthropic 的 Sonnet 3.7,而 v0-1.5-md 用的是 Sonnet 4。

3. 定制 AutoFix 模型 (Custom AutoFix model)

基础模型输出代码的时候,v0 会实时检查有没有错误、不一致或者不符合最佳实践的地方。Vercel 定制的 AutoFix 模型 会在输出过程中就把很多这类问题给修了,进一步提升质量。

等模型输出完了,还会再过一遍,把之前没发现的问题也给逮出来。最后还会跑个 linter,修复风格不一致和小错误。

🌿 v0 模型表现到底怎么样?

Vercel 主要看模型生成代码的出错率。他们搞了套针对常见 Web 开发任务的评估集,测下来,v0 模型比它们用的那些基础模型出错率低得多

picture.image (模型错误率对比)

v0-1.5-lg 虽然比 v0-1.5-md 模型更大,但有时候犯错会更多点,这是 AI 模型规模化常见的取舍。

不过,虽然它俩错误率差不多,但 Vercel 发现 v0-1.5-lg 在处理一些超专业领域 (比如 three.js 里的物理引擎) 和多步骤任务 (比如数据库迁移) 时,推理能力更强。而且 v0-1.5-lg 支持的上下文窗口也大得多。

🌲 训练自己的 AutoFix 模型

大模型都有些自己的小毛病,有的喜欢过度用 Markdown 格式化,有的会搞错文件位置或者引入一些隐蔽的 bug。Vercel 用一套全面的评估集,加上 v0.dev 用户的反馈,来追踪这些问题,找到输出需要改进的地方。

所以他们搞了个流水线,把确定性规则和基于 AI 的修正结合起来,在生成过程中就修复常见错误。早期这套流水线用的是 Gemini Flash 2.0。

为了速度和可靠性,他们跟 Fireworks AI 一起,用强化微调 (RFT) 的方法,训练了自家的定制 AutoFix 模型:vercel-autofixer-01 。经过多轮迭代优化,这个模型在各种错误类型上的出错率都降到了最低。

picture.image (AutoFix 模型训练迭代过程中的性能优化)

vercel-autofixer-01 的设计目标就是快速修复错误,同时降低整体出错率。在错误发生率评估中,它的表现跟 gpt-4o-mini 和 gemini-2.5-flash 差不多,但速度快了 10 到 40 倍

picture.image (AutoFix 模型与其他模型性能对比)

🌱 下一步呢?

v0 模型家族现在可以通过 API 和 v0.dev 使用。你可以把 v0 模型用到你喜欢的编辑器里,或者构建自定义工作流。比如,用 v0 写自动化代码迁移脚本。

Vercel 表示,他们会继续改进模型输出,未来几个月还会发布新的模型类别。

One More Thing

AI 绘画元方法:不肝提示词,文章直出封面。(端到端篇)

AI 绘画"元方法"分享,免费绘图流,掌握思维比提示词更重要。(融图篇)

本期文章主题风格:绿野仙踪。(SVG在公众号中暂时显示异常,先去掉了)

picture.image

本号知识星球获取(汇集ALL订阅频道合集和其他):

picture.image

星球里可获取更多AI实践和资讯:

picture.image

MCP文章,从概念到实践再到自己构建:

MCP怎么配置、报错解决:Windows下MCP报错的救星来了,1分钟教你完美解决Cursor配置问题。

MCP实践:Cursor + MCP:效率狂飙!一键克隆网站、自动调试错误,社区:每个人都在谈论MCP!

最新MCP托管平台:让Cursor秒变数据库专家,一键对接Github,开发效率暴增!

Blender + MCP 从入门到实践:安装、配置、插件、渲染与快捷键一文搞定!

比Playwright更高效!BrowserTools MCP 让Cursor直接控制当前浏览器,AI调试+SEO审计效率狂飙!

手把手教你配置BrowserTools MCP,Windows 和 Mac全流程,关键命令别忽略。

2分钟构建自己的MCP服务器,从算数到 Firecrawl MCP(手动挡 + AI档)

太简单了!Cline官方定义MCP开发流程,聊天式开发,让MCP搭建不再复杂。

🌟 知音难求,自我修炼亦艰,抓住前沿技术的机遇,与我们一起成为创新的超级个体(把握AIGC时代的个人力量)。

参考链接:

[博客] https://vercel.com/blog/v0-composite-model-family

点这里👇关注我,记得标星哦~

AI进修生

🌱 种下知识,收获未来 🌱

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
火山引擎大规模机器学习平台架构设计与应用实践
围绕数据加速、模型分布式训练框架建设、大规模异构集群调度、模型开发过程标准化等AI工程化实践,全面分享如何以开发者的极致体验为核心,进行机器学习平台的设计与实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论