DeepSeek-V3-0324 上线火山引擎

火山方舟大模型向量数据库

点击上方👆

蓝字

关注我们!

picture.image

近日,DeepSeek 最新推出的 DeepSeek-V3-0324 版本,在推理性能、前端开发能力、中文写作与搜索质量等方面进行了优化。

目前,火山方舟已正式上线 DeepSeek-V3-0324 模型,模型效果全面对齐 DeepSeek 官方水准,并提供全网最高 500万初始 TPM、低至 30ms 延迟的流畅体验。

点击下方「 阅读原文 」登录火山方舟,即可享受速度更加流畅、效果全面提升的 DeepSeek-V3-0324 服务。

*火山方舟同时提供 DeepSeek-V3-241226 版本,用户可根据实际需求,灵活选择。

picture.image

对齐官方效果,128K 窗口深化应用场景

由火山方舟提供服务的 DeepSeek-V3-0324,在模型效果上实现了全面提升:

  • 与 DeepSeek 官方 API 效果保持高度一致 ,提供优质的体验和服务。
  • 支持上下文窗口长度 128K ,最大输出长度 16K,在复杂问答、多轮对话、文档总结等场景中提供更加准确、高效的智能体验。
  • 支持联网、FunctionCall ,令模型具备实时信息获取与外部工具调用能力,能够拓展出更丰富的应用场景。

更强平台性能,保障流畅使用体验

为了帮助企业用户更好地在业务场景中应用 DeepSeek 模型,火山引擎在资源保障、承载能力、推理速度等方面不断优化:

  • 在线推理方面 ,火山方舟提供全网最高的 500万 TPM 初始限流 ,满足高频交互与大规模调用场景需求。
  • 支持离线批量推理 ,提供最高 50亿 tokens/天(TPD)配额保障,适用于高吞吐任务,如数据处理、内容生成、智能标注等。
  • TPOT(吐字间隔)可保持在25-40ms ,为用户带来流畅的交互体验。
  • 支持 Prefix Cache(前缀缓存) ,显著降低重复计算开销,实现更快响应速度与更高推理效率。

极致效果、稳定可靠的背后,是火山方舟底层全链路推理性能优化、服务稳定性保障机制,以及高吞吐推理架构等技术能力的支持,为用户的模型应用带来更好的体验。

针对有模型定制、部署、推理等需求的企业, 火山引擎 veMLP 平台 也即将支持 DeepSeek-V3-0324 版本,分钟级即可完成部署可用,敬请期待!

此外,一站式 AI 应用开发平台 扣子 也已接入 DeepSeek-V3-0324 能力,企业可通过扣子平台,畅享 DeepSeek-V3-0324 带来的多项能力提升。

picture.image

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论