原文首发在“Equity AI”公众号,内容经由“WaytoAGI社区整理汇总”,本篇包含了火山DeepSeek API使用的几种方式:飞书多维表格调用,Coze智能体调用,浏览器插件调用。快薅羊毛用起来吧!
昨天下午发现火山方舟大模型服务平台的模型服务计费文档悄咪咪的更新了。
文档很长,总结一下更新重点:
1、上线DeepSeek系列模型
2、DeepSeek-R1、V3模型,分别提供了50万免费额度和****API半价活动 (算下来5元有 100万) !
即日起至北京时间 2025-02-18 23:59:59 ,所有用户均可在方舟享受 DeepSeek 模型服务的价格优惠。
( 现在时间延长了!!! )
大家懂这一行字的含金量吗?
我们来看看DeepSeek官方:
和其他三方平台的价格:
基本上都是16块钱/每百万Tokens(输出),在DeepSeek火爆到“露头就秒”的时刻,火山引擎竟敢直接搞“半价”。
对于我这种,一次工作流测试就跑3000多万tokens的消耗户来说,这个价格太“感人”了。
并且!并且!火山引擎默认就提供了高达 500 万 TPM 的初始限流,没有记错的话,这已经是当前的全网最高的TPM支持量了。(/有高并发需求的小伙伴一定懂我在说什么)
而且“大聪明”还做了响应测试,火山引擎推理速度第一梯队。
刚好结合上周我发的《15分钟零基础个人电脑部署DeepSeek-R1(无限制版)保姆级教程!》,这次再配上火山引擎免费的满血DeepSeek-R1,就可以真的打造自己的专属AI助理了。(欢迎关注我的公众号!)
连夜给小伙伴们安排小白教程,这羊毛咱们必须得薅上。
我多遍重复了流程,整个操作比上篇更加简易,只需5分钟就可以接入一个专属于你自己的DeepSeek-R1(满血版)了!
一、获取DeepSeek-R1满血版密钥
1、注册并登录火山引擎,点击立即体验进入控制台。
(火山引擎是字节跳动旗下的云服务平台,在AI领域最为大众所熟知的应该是“豆包大模型”,这里就是源头)
2、创建一个接入点
点击在线推理--创建推理接入点
3、为接入点命名为DeepSeek-R1
然后可能会提示:“该模型未开通,开通后可创建推理接入点”。 如果有提示,就点击“立即开通”,开通一下就可以了。
如果无提示则直接到:第5步,点击确认接入。
4、点击“立即开通”跳转到此页面,勾选全部模型和协议,一路点击开通即可。(这里是免费的)
5、确认以下无误后,点击“确认接入”按钮。
6、自动返回创建页面。发现多出一行接入点名是“DeepSeek-R1”(我们刚才自己设置的命名)。
重点来了:这个就是推理点的ID,复制他放到你的微信里,发给自己保存一下。
7、保存后再点击【API调用】按钮,进入后点击【选择API Key并复制】
8、 如果你已经有API key了,就直接查看并复制。
如果没有,则点击【创建API key】
9、把这个复制好之后,也放到你自己微信里,保存好。
到这一步,我们已经完成拿到了模型的密钥。接着,我们就可以把他配置到各个地方使用。
-
飞书多维表格
- 获取 API_KEY
- 获取 ENDPOINT_ID
-
将获取到的 API_KEY 和 ENDPOINT_ID 填入至关联账号处
- API_KEY 填第一行,ENDPOINT_ID 填第二行,注意顺序
附上宝藏飞书多维表格模板
-
使用Coze接入
2月14日8点直播进行中:火山引擎解决方案专家带大家在Coze搭建满血版R1 bot
飞书会议:直播结束,回放看:共学数据库(历史)
学习文档:突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案
模板更新了:https://www.coze.cn/template/agent/7472279802880491558? 可以复制了
-
创建账号
如果你还是普通账号,请自行升级或注册专业号后使用
开通成功的是这样:
-
创建智能体
点击创建,先完成一个智能体的创建
如果你在最上面的教程里已经创建好自己的推理点了
那么直接在Bot编排里就可以直接看到和选择 创建好的推理模型了
测试一下,可以用了! 直接发布就可以
注意事项:如果发布到公共空间,其他人用的是你的API,要注意Token消耗哦!(也可以设置成仅自己使用)
如果想搭建联网及复杂的工作流,可以看完整搭建教程:韦恩: 被困在离线孤岛?DeepSeek 联网版 我已经用扣子实现了!! 不卡顿!!
-
使用网页聊天
1、安装插件
也可以使用其他插件
下面为举例示意使用 Chrome或Microsoft Edge浏览器,点击此链接,安装浏览器插件,添加到拓展程序:
2、打开聊天页面
点击右上角的插件列表,找到Page Assist插件,点击打开。
3、配置“DeepSeek-R1”模型的API key
基础URL:https://ark.cn-beijing.volces.com/api/v3
填好之后,点击保存,关掉提醒弹窗。
4、添加“DeepSeek-R1”模型。
5、可以愉快玩耍,无需担心“服务器繁忙”了,打开联网功能,还可以支持联网搜索使用R1。
使用测试
既然已经部署完成,我们来使用一道“2024年高考全国甲卷理科数学”压轴题来测试一下R1的速度。
面对这个复杂的推理问题,火山引擎的DeepSeek-R1的推理速度,足足比官方版本的快了 “3分34秒”。
在问题提出后,能够明显感受到火山引擎接口的延迟非常低,发出去问题的一瞬间就得到了回复。
(因耗时长,剪辑时做了60倍加速)
看着满屏流畅的推理日志,突然有些恍惚。曾几何时,大模型于开发者而言是隔着API的神秘黑箱,是算力成本与响应速度的艰难取舍,两年前第一次调用GPT-3.5接口时,盯着计费面板上跳动的数字,手心微微发汗——每千Token近4毛钱的价格,让每次点击回车键都像在投掷硬币。
那时的我们不会想到,大模型赛道的狂奔会如此剧烈:从硅谷到北京,无数工程师用成山的GPU与代码重构了技术普惠的刻度。恍然惊觉这两年的光阴里,模型厂商们竟把算力的“黄金”炼成了“氧气”。这是AI浪潮中的动人叙事:当技术突破撞上工程化巨浪,曾经实验室里的星辰开始照亮普通开发者的键盘。
或许,当你看着教程,敲下第一个API调用时
也会像我一样
听见时代齿轮与代码共鸣的清脆声响。