火山引擎多款模型及服务发布,助力 Agent 开发和落地

火山方舟大模型向量数据库

点击上方👆蓝字关注我们!

picture.image

今天,在 FORCE Link AI 创新巡展· 厦门站,火山引擎发布豆包·图像编辑模型 3.0、豆包·同声传译模型 2.0,豆包大模型 1.6 系列全新升级,满足企业多元业务场景需求。面向 Agent 开发和落地,火山引擎持续优化 AI 云原生全栈服务,开源扣子核心能力,并发布企业自有模型托管方案、Responses API 等多个模型服务和工具产品,为企业和开发者构建 Agent、落地 AI 夯实基础设施。

picture.image
火山引擎总裁 谭待

豆包·图像编辑模型 3.0 上线火山方舟:AI 修图“听得懂、改得对、足够美”

AI 图像编辑能大幅提升 P 图效率,但在实际应用中常面临三类典型难题:难以理解用户真实需求,指令执行不到位;误改了不该修改的地方;输出图像美感不够,AI 痕迹重。

为此,火山引擎正式发布豆包·图像编辑模型 SeedEdit 3.0,具备更强的指令遵循能力、图像保持能力和更强的图像生成质量。

picture.image

更强指令遵循能力

picture.image

更强图像保持能力

picture.image

更强图像生成质量

用户只需通过自然语言指令,即可完成消除多余内容、改变光影效果、替换文字等操作。同时,豆包·图像编辑模型 3.0 具备对风格、结构与语义的精准控制力,能够像人类大脑一样理解指令、深度思考,解锁更多创新的修图场景,例如图像风格转换、变换材质、变化人物姿势、根据提示词进行推理等 P 图玩法。

豆包·图像编辑模型 3.0 可广泛应用于影像创作、广告营销、游戏宣传等领域,企业用户可在火山方舟平台调用该模型 API,个人用户可使用即梦或豆包 app 的“豆包 P 图”功能体验。

豆包·同声传译模型 2.0 发布:3 秒极低延迟,0 样本声音复刻

传统的翻译系统通常依赖于“级联模型”——多个模块相互串联,依次处理语音识别、翻译、声音复刻和语音合成等任务,翻译结果不够连贯、处理速度慢。

此次全新发布的豆包·同声传译模型 Seed-LiveInterpret 2.0,支持全双工语音理解和生成框架,将传统机器同传的语音延迟从 8-10 秒降低到 2-3 秒,实现文本与语音的同步生成;无需提前录制,一边说话一边采样,实现0样本声音复刻,让同一个人同音色开口说外语,带来更沉浸的体验。

极低的语音延迟(对比 1.0 模型)

0 样本声音复刻,根据音色增加方言口音

跨语言会议场景

豆包大模型 1.6 系列再升级:极速版延迟低至 10ms

今年 6 月,豆包大模型 1.6 系列多个模型正式发布,为企业提供多样化选择。此次,极速版 Doubao-Seed-1.6-flash 模型在保持出色的视觉理解能力的同时,升级了代码、推理、数学等大语言模型能力。

Doubao-Seed-1.6-flash 模型,非常适合智能巡检、手机助手、智能硬件等对模型效果、速度和成本都有要求的大规模商业化场景。该模型具有业界领先的极低延迟,TPOT 仅 10ms,并依然具备强大的视觉理解能力。

价格上,Doubao-Seed-1.6-flash 在输入文本长度 0-32k 的区间中(企业使用量最大),每百万 tokens 输入仅需 0.15 元,输出仅 1.5 元。在真实的客户案例中,该模型帮助客户延迟下降 60%,成本降低 70%。

Doubao-Seed-1.6-flash 应用于各类巡检场景

此外,火山引擎发布全模态向量化模型 Seed1.6-Embedding,首次实现了“文本+图像+视频”混合模态的融合检索,帮助企业构建更强大的多模态知识库。在权威测评榜单中,该模型包揽了多模态全面任务、中文文本的 SOTA 成绩。

AI 云原生全栈服务持续优化:助力 Agent 开发落地

除了更好的基础模型,Agent 开发平台和工具、支撑推理的算力基础设施,同样对构建 AI 应用至关重要。火山引擎持续优化 AI 云原生全栈服务,帮助企业实现端到端的 Agent 开发和落地。

扣子核心能力开源:在火山引擎可自动化部署

为加速 AI 落地、构建繁荣的 AI 生态,7 月 26 日,Al Agent 开发平台扣子将核心能力正式开源。

本次开源覆盖扣子平台最核心的两个项目: 扣子开发平台(Coze Studio)、 扣子罗盘(Coze Loop),并采用没有任何附加条件的 Apache 2.0 许可证开源,用户可在 GitHub 下载。

扣子开发平台,是一站式的 AI Agent 可视化开发工具,可快速实现 AI Agent 的创建、调试和部署。扣子罗盘,可以帮助开发者实现 Agent 从开发到运维的全链路管理。开源仅三天,Coze Studio 在 GitHub 的 stars 数已经破万, Coze Loop 也有 3000+ stars。

火山引擎也为 Coze 开源版提供了全面支持。企业 AI 平台产品 HiAgent,可调用 Coze 开源版提供的智能体搭建和运维能力,并通过共享 Agent 标准,支持扣子开源版智能体的纳管。

火山引擎的云基础产品,也将为扣子开源版提供高效、稳定、可靠的基础设施支持,开发者可以一键拉起资源,完成部署。

企业自有模型托管方案发布:通过火山方舟模型单元部署

针对有模型定制需求的企业客户,火山引擎发布企业自有模型托管方案:依托火山方舟模型单元,企业无需运维底层 GPU 资源,也不用进行复杂的网络和调度配置,就能在火山方舟上实现自研模型的全托管,并在推理服务中享受火山方舟极致的弹性算力资源,大幅降本增效。

在算力成本上,企业可以自主选择部署方式、机型、并设置弹性规则,更精细的控制首 Token 时延、模型吐字延迟,且无需为业务低谷期付费,实现更高的资源利用效率。

此外,全托管的企业自有模型,还能享受火山方舟上的全套开发工具、MCP 服务等生态配套。目前,火山方舟模型单元已在火山方舟上开放邀测。

Responses API 上线:支持多模态 Agent 高效开发

多模态模型统一、多模态模型 API 的统一,是当前大模型发展的重要趋势。为此,火山方舟平台升级了 API 体系,推出 Responses API。

它具备原生上下文管理能力,支持多轮对话的链式管理,可以无缝衔接文本、图像、混合模态数据。结合 cache 能力后,能降大幅低延迟和成本,在很多典型应用里,整体成本下降幅度可达 80%。

此外,Responses API 支持自主选择调用工具,用户发起单次请求,即可联动多个内置工具、自定义函数及多轮模型组合响应,解决复杂 Agent 任务,让 Agent 开发更加省时省力。

搭建一个智能助手 Agent,传统的构建方法(视频左)要撰写约 460 行代码,使用 Responses API (视频右)仅需 60 行代码;开发时间可以从 1-2 天缩短到 1 小时

0
0
0
0
关于作者

文章

0

获赞

0

收藏

0

相关资源
火山引擎大规模机器学习平台架构设计与应用实践
围绕数据加速、模型分布式训练框架建设、大规模异构集群调度、模型开发过程标准化等AI工程化实践,全面分享如何以开发者的极致体验为核心,进行机器学习平台的设计与实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论