豆包 1.5 · 深度思考模型上线边缘大模型网关,百万 Tokens 免费领

边缘云边缘计算边缘智能

4 月 17 日,火山引擎发布豆包 1.5・深度思考模型,引发业内关注与讨论。全新发布的豆包 1.5・深度思考模型,在数学、代码、科学等专业领域推理任务中表现出色,已经达到或接近全球第一梯队水平;在创意写作等非推理任务中,模型也展示出优秀的泛化能力,能够胜任更广泛和复杂的使用场景。

豆包 1.5・深度思考模型包含两个版本,第一个主线版本是大语言模型 Doubao-1.5-thinking-pro,第二个是多模态版。前者推理能力更强,后者支持视觉推理。

目前,火山引擎边缘大模型网关已全面支持 豆包 1.5・深度思考模型!即日起,用户可以在边缘大模型网关使用豆包全系列模型,并享受 200 万 tokens 免费额度,只要在网关访问密钥使用了本次新增的豆包大模型,还可以申请将免费额度提升至 500 万 tokens !

picture.image

边缘大模型网关,助力豆包大模型调用

火山引擎边缘大模型网关支持通过一个 API 接口访问多家大模型提供商的模型与智能体,在端侧基于遍布全球的边缘计算节点就近调用。利用边缘云基础架构优势,提高模型访问速度,为终端用户提供更快速、可靠的 AI 服务体验。

picture.image

在边缘大模型网关,用户可通过两种方式调用豆包 1.5・深度思考模型:

  • 一是通过平台预置模型, 边缘大模型网关预置模型中,新增由火山方舟提供的豆包 1.5・深度思考模型,您可直接使用并对其创建网关访问密钥;

  • 二是通过自有三方模型, 您可以将您在第三方模型平台的密钥纳管至边缘大模型网关,通过边缘大模型网关签发的网关访问密钥,进行对应模型的访问与调用。

picture.image

picture.image

据了解,豆包 1.5・深度思考模型采用 MoE 架构,总参数为 200B ,激活参数仅 20B ,具备显著的训练和推理成本优势。基于高效算法,豆包 1.5・深度思考模型在提供行业极高并发承载能力的同时,实现 20 毫秒极低延迟。除此之外,「深度思考」和「视觉理解」复合能力的加持,让豆包 1.5・深度思考模型就像是一个长有「聪明大脑」和「眼睛」的超级 AI,解决问题的能力大大提升。

通过边缘大模型网关调用豆包 1.5 · 深度思考模型,还具备以下优势:

  • 加速调用: 基于端侧请求发起位置,边缘大模型网关将请求就近路由到网络延时最低的节点,加速豆包 1.5 · 深度思考模型的响应速度,提升服务质量。

  • 控制成本: 边缘大模型网关利用边缘缓存机制对请求就近存储,并在相同请求发出时就近调用,减少豆包 1.5 · 深度思考模型调用请求的回源次数,降低模型调用成本,实现成本管控。

  • 自动重试: 当请求调用超时或失败时,配置请求重试次数,即可通过边缘大模型网关实现模型调用自动重试,降低手动运维成本。

  • 故障转移 当单个模型故障时,通过边缘大模型网关的一个 API 配置多个模型,就可以自动切换同类型下的备用模型,确保服务的连续性和可靠性。

picture.image

豆包大模型特惠,扩容免费提升至 500 万 tokens

当前,火山引擎边缘大模型网关已适配 100+ 种主流大模型及智能体,首次创建每个网关访问密钥可用额度为 200 万 tokens !

针对豆包 1.5・深度思考模型,边缘大模型网关推出特惠活动,只要在边缘大模型网关创建网关访问密钥,并关联本次最新的豆包大模型, 即可提交扩容申请,免费额度提升至 500 万 tokens !

picture.image

了解更多边缘大模型网关产品详情,或需要开通更多 token 用量,也欢迎扫描下方二维码加入边缘智能交流群!

picture.image

火山引擎边缘智能交流群

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论