豆包视觉理解模型正式登场:体验流程详解

火山方舟大模型向量数据库

官方文档:https://www.coze.cn/docs/guides/vlm

简介

在12月18日举办的火山引擎 Force 大会上,字节跳动正式发布发布豆包视觉理解模型,为企业提供极具性价比的多模态大模型能力。

当你传入图片时,视觉语言模型(VLM)可以理解图片里的视觉信息,并结合这些信息完成图片相关的任务,例如描述图片等。豆包模型家族中的 Doubao-vision-pro-32k 就是 VLM 的一种。基于RTC + 视觉大模型/语言大模型的强大理解能力,扣子支持和自己搭建的智能体进行低延迟高质量的视频实时通话,让智能体耳聪目明。

申请体验豆包视觉模型

前置准备: coze 专业版用户

第一步 火山方舟平台开通模型

1)登录火山方舟

2)创建推理接入点

picture.image

3)填写基本信息

picture.image

4)添加模型

picture.image

picture.image

5)点击确认接入

picture.image

第二步 coze 使用 视觉模型 创建智能体

扣子网址:https://www.coze.cn/home

1)创建智能体

picture.image

picture.image

2)选择模型

picture.image

3)发布

picture.image

picture.image

4)勾选 API 和 Chat SDK 并发布

picture.image

picture.image

第三步 链接申请 视觉模型 体验

链接:申请体验链接

填写完成后,提交即可

picture.image

picture.image

第四步 体验豆包视觉模型

开通完成后访问网址 https://www.coze.cn/open-platform/realtime/playground 即可体验。

官方体验视频(最后一个):https://vcn9zksseidl.feishu.cn/wiki/SX1DwC4exiCJvQkMj98cHl9enJe?fromScene=spaceOverview

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
大模型解决方案白皮书:社交陪伴场景全流程落地指南
随着大模型技术持续突破,AI正加速重塑社交娱乐的形态与体验。其中,陪伴式聊天因用户黏性强、互动频次高,成为大模型商业化落地的关键赛道。随着模型能力跃升至万亿参数级,AI从工具属性正迈向情感交互生态,现象级产品的诞生条件逐渐成熟。 本白皮书聚焦AI陪伴聊天应用开发,面向“从何起步、如何落地”的新手困惑,系统拆解从需求定义到产品上线的关键流程。我们结合工程化实践路径,打造模块化知识体系与渐进式开发框架,帮助开发者在30天内完成从技术认知到产品原型的跃升,快速构建具备基础交互能力的Web或App应用,迈出大模型
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论