羊毛快薅|字节火山上线了DeepSeek系列模型并悄悄更改了模型服务价格...

火山方舟大模型向量数据库

昨天下午发现火山方舟大模型服务平台的模型服务计费文档悄咪咪的更新了。

picture.image

文档很长,总结一下更新重点:

1、上线DeepSeek系列模型

2、DeepSeek-R1、V3模型,分别提供了50万免费额度和API半价活动!

picture.image

picture.image

即日起至北京时间 2025-02-18 23:59:59,所有用户均可在方舟享受 DeepSeek 模型服务的价格优惠。

大家懂这一行字的含金量吗?

我们来看看DeepSeek官方价格:

picture.image

和其他三方平台的价格:

picture.image

基本上都是16块钱/每百万Tokens(输出),在DeepSeek火爆到“露头就秒”的时刻,火山引擎竟敢直接搞“ 半价 ”。

对于我这种,一次工作流测试就跑3000多万tokens的消耗户来说,这个价格太“感人”了。

picture.image

并且!并且!火山引擎默认就提供了高达 500 万 TPM 的初始限流,没有记错的话,这已经是当前的全网最高的TPM支持量了。(有高并发需求的小伙伴一定懂我在说什么)

而且“大聪明”还做了响应测试,火山引擎推理速度第一梯队。

picture.image

刚好结合上周我发的《15分钟零基础个人电脑部署DeepSeek-R1(无限制版)保姆级教程!》,这次再配上火山引擎免费的满血DeepSeek-R1,就可以打造自己的满血版专属AI助理了。

连夜给小伙伴们安排小白教程,这羊毛咱们必须得薅上。

我多遍重复了流程,整个操作比上篇更加简易,并且本篇沿用了“网页聊天”工具,只需5分钟就可以接入一个专属于你自己的DeepSeek-R1(满血版)!

一、获取DeepSeek-R1满血版密钥

1、注册并登录火山引擎

https://zjsms.com/iP5QRuGW/

(火山引擎是字节跳动旗下的云服务平台,在AI领域最为大众所熟知的应该是“豆包大模型”)

picture.image

2、创建一个接入点

https://console.volcengine.com/ark/region:ark+cn-beijing/endpoint?config=%7B%7D

picture.image

3、为接入点命名 为DeepSeek-R1

picture.image

picture.image

然后可能会提示:“该模型未开通,开通后可创建推理接入点”。

  • 如果有提示,就点击“立即开通”,开通一下就可以了。

  • 如果无提示则直接到:第5步,点击确认接入。

picture.image

4、点击“立即开通” 跳转到此页面,勾选全部模型和协议,一路点击开通即可。(这里是免费的)

picture.image

5、确认以下无误后, 点击“确认接入”按钮。

picture.image

6、自动返回创建页面。发现多出一行接入点名是“DeepSeek-R1”(我们刚才自己设置的命名)。

picture.image

重点来了:这个就是推理点的ID,复制他放到你的微信里,发给自己保存一下。

picture.image

7、保存后再点击【API调用】按钮,进入后点击【选择API Key并复制】

picture.image

8、 如果你已经有API key了,就直接查看并复制。

如果没有,则点击【创建API key】

picture.image

picture.image

picture.image

9、复制下来,也放到你自己微信里,保存好。

到这一步,我们已经完成拿到了模型的密钥。接着,我们去把他配置到网页聊天里使用。

二、使用网页聊天

1、安装插件

使用Google Chrome或Microsoft Edge浏览器,点击此链接,安装浏览器插件,添加到拓展程序:

https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo

picture.image

2、打开聊天页面

点击右上角的插件列表,找到Page Assist插件,点击打开。

picture.image

3、配置“DeepSeek-R1”模型的API key

picture.image

picture.image

picture.image

基础URL:https://ark.cn-beijing.volces.com/api/v3

填好之后,点击保存,关掉提醒弹窗。

4、添加“DeepSeek-R1”模型。

picture.image

picture.image

picture.image

5、愉快玩耍

无需担心“服务器繁忙”,打开联网功能,还可支持联网搜索使用R1喽~

picture.image

picture.image

三、最后

既然已经部署完成,我们来使用一道“2024年高考全国甲卷理科数学”压轴题来测试一下R1的速度。

面对这个复杂的推理问题,火山引擎的DeepSeek-R1的推理速度,足足比官方版本的快了“3分34秒”。

在问题提出后,能够明显感受到火山引擎接口的延迟非常低,发出去问题的一瞬间就得到了回复。

看着满屏流畅的推理日志,突然有些恍惚。曾几何时,大模型于开发者而言是隔着API的神秘黑箱,是算力成本与响应速度的艰难取舍,两年前第一次调用GPT-3.5接口时,盯着计费面板上跳动的数字,手心微微发汗—每千Token近4毛钱的价格,让每次点击回车键都像在投掷硬币。

那时的我们不会想到,大模型赛道的狂奔会如此剧烈:从硅谷到北京,无数工程师用成山的GPU与代码重构了技术普惠的刻度。恍然惊觉这两年的光阴里,模型厂商们竟把算力的“黄金”炼成了“氧气”。这是AI浪潮里的动人叙事:当技术突破撞上工程化巨浪,曾经实验室里的星辰开始照亮普通开发者的键盘。

或许,当你看着教程,敲下第一个API调用时,

也会像我一样,

听见时代齿轮与代码共鸣的清脆声响。

以上,既然看到这里了,如果你喜欢,请随手点个赞、在看、转发三连吧,感谢你的支持~

往期推荐

1、15分钟零基础个人电脑部署DeepSeek-R1(无限制版)保姆级教程!

2、【AI编程小白入门】AI编程不只是工具,更是这个时代给予普通人的巨大红利

3、抛砖引玉 | 为什么DeepSeek-R1是推理模型?(万字长文)

4、二次元女友陪你上班是种什么体验?手把手教你用AI打破次元壁!

5、手把手教你把AI大模型接入小米音箱,无需任何代码基础详细操作教程!

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
VikingDB:大规模云原生向量数据库的前沿实践与应用
本次演讲将重点介绍 VikingDB 解决各类应用中极限性能、规模、精度问题上的探索实践,并通过落地的案例向听众介绍如何在多模态信息检索、RAG 与知识库等领域进行合理的技术选型和规划。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论