Claude Code配Doubao-Seed-Code,能成为国内开发者的标配吗?

行业趋势最佳实践Agent

如果你已经用Claude Code作为主力开发工具,并能负担得起每月20刀甚至100刀的会员费,那这篇博文不是为你准备的。

很多国内的朋友可能听说过Claude Code,但一直都没有用起来。因为能顺利购买和使用它家服务,还是有一定门槛的。

  所以国内通常都有一些邪修的方法。比如用CC+国内模型,像Kimi K2或者GLM 4.6。这是利用CC的工程化能力,配合国内的大模型,可以在一定程度上缓解我们使用AI自动写代码的工具焦虑。

要说大语言模型目前热度最高,最有希望率先挣钱的行业,还得是自己革自己命的软开行业,这属于25年大厂必争之地。

近日,全球知名的AI模型评测平台LMArena发布了最新AI大模型排名,其编程与代码生成模型排行榜由美国Anthropic的Claude、OpenAI的GPT-5、智谱的GLM-4.6暂时排名并列全球第一。但这并不是意味着其他家就会坐以待毙。

这不,字节就悄悄放出了Doubao-Seed-Code模型,这是国内首个具备视觉理解能力的编程模型。今天我们就来一起看看,这能否成为广大国内开发者的福音。

01 环境设置

  前置条件,安装有Node.js 18以上,Windows用户还需要Git for Windows。   在命令行执行如下命令即可安装Claude Code(通常这都不会有啥问题)。

npm install -g @anthropic-ai/claude-code

  然后执行claude --version,如果终端输出了版本号信息,即表示安装成功了。

  接着修改配置文件 ~/.claude/settings.json,添加以下内容。

{  
  "env": { 
     "ANTHROPIC_AUTH_TOKEN": "ARK_API_KEY",
     "ANTHROPIC_BASE_URL": "https://ark.cn-beijing.volces.com/api/coding",
     "API_TIMEOUT_MS": "3000000",
     "ANTHROPIC_MODEL": "doubao-seed-code-preview-latest"  
  }
}

  上述ARK_API_KEY,需要替换为你自己的。可通过登录火山引擎控制台,点击右上角头像,在下拉页面的“API 访问密钥”处获取。如果第一次使用,还没有API Key,则应该“新建密钥”。 此时再启动Claude Code,就可以开启AI代码生成之旅了。

02 小试牛刀   模拟我们平常的实际项目开发,先有一个UI设计图,借用知乎上的一张产品图,如有侵权,请联系告知删除。

picture.image

  此时让AI来帮忙生成前端代码。先新建一个空白目录,将图片放在根目录,从该根目录启动CC后,在任务框输入“使用Vue3开发一个如图 @r.jpg 的前端页面”

picture.image

  接着我们耐心的等待。大约几分钟之后,提示生成了一些文件,或者执行一些命令,需要我们确认。1是单次确认,如果选择1的话,后面会有无数次的确认。所以,我们还是选择2吧。即全部接受改动。

  又过了几分钟,提示已经完成代码生成,并自己测试通过,并开启了开发者模式,让我们访问http://localhost:5173查看。   这里麦金叔,改动了一下vite.config.js的内容,让项目可以远程访问。因为我的Claude Code安装在虚拟机里面。

server: {    host: '0.0.0.0',    port: 3003,  }

  这时,访问http://192.168.12.129:3003/ 就能看到豆包code模型生成的前端项目了。

picture.image

  大家可以对比一下图1的设计稿,看看还原度是否满意。

03 对比评测

  回到我们的标题,除了要知道CC+Doubao-Seed-Code已经可以干活之外,还需要了解它跟原版CC+Claude模型之间的对比。

  同样的项目同样的输入结果又是如何的呢? 经过几分钟的运行,同样也得到了一个前端项目结果。大家看一下谁更接近原始设计呢?

picture.image

  除了从结果呈现看,我们还能从其他细节来比较一下。如下图所示,我们输入/cost来生成一下总结。

picture.image

picture.image

  1. 生成时间:   claude原模型(haiku和sonnet),API调用时间5分50秒,项目总体时长8分41秒。   而豆包模型,则在API调用上持续了11分50秒,多出了一倍,项目总时长也到了13分46秒。

  2. 费用预估:   原生模型,显示预估费用为0.7刀。当然如果是包月的话,这个没有太大意义,要看API调用次数,是否触发限流。   而豆包模型,则预估需要1.72刀。如果按API的调用方式的话,我不知道实际花费是多少钱。真的要用的话,最起码要购买Coding Plan的Lite套餐吧,一个月40人民币,首月优惠价9.9元。

  3.代码量:   原生模型,新增1548行。5.4K的input tokens,21.5K的output,命中cache 360K读和70K写。   豆包模型,则显示新增921行,并修改其中的20行。414K的input tokens,15.5K的output,命中cache332K读,没有写cache。

总结

通过上面的对比,相信各位有一个简单直观的感受。在国内使用CC+豆包编码模型,到底能不能用来做vibe coding以替代原生claude code?

  先说结论,我认为是可以的。   一个月40块钱的成本,能代替人工写低级别的代码,这笔买卖还是划算的。   随着使用的熟练度提高,比如通过放置Claude.md或者安排Skill描述的方式,进一步约束模型做正确的事情。再加上大模型的不断进化,国产模型能力追上并超越,只是时间问题。

如果你对AI的发展感兴趣,欢迎一键三连。有任何问题可以联系我,我们共同探讨。

0
0
0
0
关于作者

文章

0

获赞

0

收藏

0

相关资源
CV 技术在视频创作中的应用
本次演讲将介绍在拍摄、编辑等场景,我们如何利用 AI 技术赋能创作者;以及基于这些场景,字节跳动积累的领先技术能力。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论