Dify 配置本地大模型保姆级教程

大模型容器数据库

今天聊的是,如何将本地(个人电脑)部署的大模型对接到本地的工作流平台 Dify 中。  

picture.image

picture.image

1-ollama 启动

命令行工具输入 ollama list,会显示所有在本地安装的大模型。

我的电脑已经安装了 qwen2 和 llama3.2。

  
(base) mulele@muleles-MacBook-Pro ~ % ollama list  
NAME               ID              SIZE      MODIFIED      
qwen2:latest       dd314f039b9d    4.4 GB    5 weeks ago      
llama3.2:latest    a80c4f17acd5    2.0 GB    5 weeks ago      
(base) mulele@muleles-MacBook-Pro ~ % ollama run qwen2

2-启用大模型

执行启动大模型指令 

Ollama run qwen2或者 

Ollama run llama3.2  

通过指令直接启动已经安装的本地大模型。如果run 的是未安装的大模型,则指令会执行模型下载任务。 

我打开的是qwen2,做个简单的测试。写个 100 字的鸡汤文章。 

picture.image

3-获取本地服务地址

• 模型名称:填写用ollama list命令列出来的模型名,我用的还是 qwen2,如果是其他的模型,直接替换; 

• 模型基础URL:http://host.docker.internal:11434 

picture.image

 

4-测试Dify是否能正常使用

打开Dify,创建一个空白应用。 

picture.image

picture.image

接下来,左边输入提示词,右侧选择我们刚才配置好的本地大模型 qwen2。很好,看到对话能够正常执行了。qwen2 不愧是国货之光。 

picture.image

最后,点击发布,则可以在 dify 上发布工作流了。 

发布的模式有几种,一个是直接在本地开启一个对话框。通过对话的模式调用智能体服务。 

picture.image

当然,Dify也支持将智能体嵌入网站,或者将智能体作为 API,发布给其他应用调用。 

picture.image

picture.image

今天的分享结束了,回见。 

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
VikingDB:大规模云原生向量数据库的前沿实践与应用
本次演讲将重点介绍 VikingDB 解决各类应用中极限性能、规模、精度问题上的探索实践,并通过落地的案例向听众介绍如何在多模态信息检索、RAG 与知识库等领域进行合理的技术选型和规划。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论