更强模型效果!豆包大模型 1.6 系列上线边缘大模型网关,最高申领1000万免费 Tokens

边缘计算边缘智能边缘云

6 月 11 日,火山引擎正式发布豆包大模型 1.6 系列,该系列由 “doubao-seed-1.6”“doubao-seed-1.6-thinking”“doubao-seed-1.6-flash” 三个模型组成。豆包大模型 1.6 具有更强的模型效果,在众多权威测评集上,得分均属于国际第一梯队。在推理能力、多模态理解能力、GUI 操作能力上具备领先优势。

picture.image

目前,火山引擎边缘大模型网关已全面支持 豆包 大模型 1.6 系列!即日起,用户可以在边缘大模型网关使用豆包全系列模型,并享受 200 万 tokens 免费额度,只要在网关访问密钥使用了本次新增的豆包大模型,还可以申请将免费额度提升至 1000 万 tokens !

边缘大模型网关,助力豆包大模型 1.6 系列快速可靠调用

火山引擎边缘大模型网关支持通过一个 API 接口访问多家大模型提供商的模型与智能体,在端侧基于遍布全球的边缘计算节点就近调用。利用边缘云基础架构优势,提高模型访问速度,为终端用户提供更快速、可靠的 AI 服务体验。

在边缘大模型网关,用户可以通过两种方式调用豆包 大模型1.6系列

  • 一是通过平台预置模型, 边缘大模型网关预置模型中,新增豆包 大模型 1.6 系列,您可直接使用并对其创建网关访问密钥;

  • 二是通过自有三方模型, 您可以将您在第三方模型平台的密钥纳管至边缘大模型网关,通过边缘大模型网关签发的网关访问密钥,进行对应模型的访问与调用。

picture.image

据了解,豆包大模型 1.6 系列由三个模型组成:

  • doubao-seed-1.6: All-in-One 的综合模型,是国内首个支持 256K 上下文的思考模型,支持深度思考、多模态理解、图形界面操作等多项能力。支持选择开启或关闭深度思考、自适应思考三种方式,其中自适应思考模式可根据提示词难度自动决定是否开启思考,提升效果的同时大幅减少 tokens 消耗。

  • doubao-seed-1.6-thinking: 豆包大模型 1.6 系列在深度思考方面的强化版本;在代码、数学、逻辑推理等基础能力上进一步提升;支持 256K 上下文。

  • doubao-seed-1.6-flash: 豆包大模型 1.6 系列的极速版本,支持深度思考、多模态理解、256K 上下文;延迟极低,TOPT 仅需 10ms;视觉理解能力比肩友商旗舰模型。

picture.image

通过边缘大模型网关调用豆包大模型 1.6 系列,还具备以下优势:

  • 加速调用: 基于端侧请求发起位置,边缘大模型网关将请求就近路由到网络延时最低的节点,加速豆包大模型 1.6 系列的响应速度,提升服务质量。

  • 控制成本: 边缘大模型网关利用边缘缓存机制对请求就近存储,并在相同请求发出时就近调用,减少豆包大模型 1.6 系列调用请求的回源次数,降低模型调用成本,实现成本管控。

  • 自动重试: 当请求调用超时或失败时,配置请求重试次数,即可通过边缘大模型网关实现模型调用自动重试,降低手动运维成本。

  • 故障转移: 当单个模型故障时,通过边缘大模型网关的一个 API 配置多个模型,就可以自动切换同类型下的备用模型,确保服务的连续性和可靠性。

picture.image

豆包大模型特惠,扩容免费提升至 1000 万 tokens

当前,火山引擎边缘大模型网关已适配 100+ 种主流大模型及智能体,首次创建每个网关访问密钥可用额度为 200 万 tokens !

针对豆包大模型 1.6 系列,边缘大模型网关推出特惠活动,只要在边缘大模型网关创建网关 访问密钥 ,并关联本次最新的豆包大模型, 即可提交扩容申请,免费额度提升至 1000 万 tokens !

免费额度获取方式:

扩容申请指导免费额度获取方式:

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论