本文适用对象:略高于初级水平
目标:平替DeepSeek官方服务
自春节以来DeepSeek就一直处于热门状态,官方提供的app和网站服务经常出现无法使用的情况,个中原因除了尝试的人数众多,还有外部势力的破坏。如果你只是浅尝辄止,完全可以等它恢复后再用。
另外国家超算互联网平台,也开放了免费体验资源。https://www.scnet.cn 不过需求太大,已经偷摸的改为7b的模型,真的扛不住广大人民群众的AI热情。
既然这样,那还不如用麦金叔的方法本地搭建呢,然而很多朋友的电脑本地搭建也很难跑起来。是不是只能干瞪眼呢?NO,我命由我不由天,麦金叔教你"白嫖"资源,搭建仅供自己使用的DeepSeek大模型,最好还要大参数版本,比如deepseek-r1:14b。
这次的主角是腾讯的Cloud Studio,注册扫微信登录之后,可以看到高性能主机每月送10000分钟,平均每天都能用5个多小时。
查看主机的配置,CPU8核,内存32G,显存16G。嚯,这大善人真舍得啊。不过,最近也受DeepSeek的影响,高峰时间可能要排队,但是只要开了机,就可以一直用了。每天用完了,记得手动关机。把资源释放给更多的人使用。要是忘记了,大善人会凌晨给你关机的,第二天继续开机即可。
千万记得要选基础型,不要被它反向薅羊毛了。选择预设模版ollama,开机之后进入一个Cloud IDE,不要过多留恋,直奔主题。点击第一排的菜单"终端->新建终端",这时就打开了Linux的Terminal了。输入"ollama -v",可以看到有输出,证明环境已经ready。
此时,仅一步之遥,就创建好使用环境啦。
输入"ollama run deepseek-r1:14b",等待拉取模型完成。
这个过程有点看运气,有时候下载还是比较快的,但有时候,会不足1MB/s。
等待全部完成,就进入对话模式,可以用了。
"白嫖"成功!
但这样用起来有点不太爽。有什么办法能接入本地工具呢?
比如麦金叔前几期介绍的Open WebUI或者Dify。这就是这篇博文的重点了。
核心就是需要拿到一个Ollama的BASE URL。博主要开始"装B"了。输入以下两行命令,(如果不想手敲,请关注公众号后,留言回复"deepseek",会自动回复可供复制的bash命令)
你将得到如图所示的一个地址,复制一下。
好了,去Open WebUI或Dify的配置项目,把得到的URL粘贴进去,就可以用啦。不知道配置的,请移步下面的文档。
使用起来如此的丝滑。
END
总结
今天收获"白嫖"DeepSeek资源一枚。
同时,我们也再次复习了一下本地环境搭建,这里的"本地环境"也是可以利用互联网的API服务的。这在将来,多来源模型结果对比评估时,特别有用。希望大家都能动手实践。
如果你对AI的发展感兴趣,欢迎一键三连。有任何问题可以扫码添加好友,我们共同探讨。