程序员wayn
程序员wayn
AIdeepseekPythonAI开放平台
本文将通过一个完整的实战项目,介绍如何使用 FastAPI 框架开发 AI 聊天应用,重点讲解连续多轮对话的实现原理和核心技术。即使你是编程新手,也能跟着本教程一步步构建出功能完整的 AI 聊天应用。本项目已经开源之 Github,项目地址:https://github.com/wayn111/fastapi-ai-chat-demo温馨提示:本文全文约一万字,看完约需 15分钟。想象一下,你正在
38
0
0
0
技术Java
线程池是 Java 多线程编程中的一个重要概念,它可以有效地管理和复用线程资源,提高系统的性能和稳定性。但是线程池的使用也有一些注意事项和常见的错误,如果不小心,就可能会导致一些严重的问题,比如内存泄漏、死锁、性能下降等。最后文末还有免费红包封面可以领取,回馈给各位读者朋友。本文将介绍线程池使用不当的五个坑,以及如何避免和解决它们,大纲如下,线程池执行方法时要添加异常处理,这是一个老生常谈的问题,
31
0
0
0
技术Spring
本文记录一下我在 Spring 自带的事件监听类添加 @RefreshScope 注解时遇到的坑,原本这两个东西单独使用是各自安好,但当大家将它们组合在一起时,会发现我们的事件监听代码被重复执行。希望大家引以为鉴,避免重复踩坑。耐心看完,你一定会有所收获!最近有一个用户拉新的需求,需要在新用户注册时判断用户是否有对应的邀请关系,如果有则需要给新用户赠送系统资源。原有的用户注册逻辑里使用了 Spri
16
0
0
0
AIdeepseek
你有没有想过,能不能像跟人聊天一样,直接问 PDF 文件或技术手册问题?比如你有一本很厚的说明书,不想一页页翻,只想问它:“这个功能怎么用?”或者“这个参数是什么意思?”现在有了 AI 技术,这完全可以实现!这篇文章教你如何用两个工具(DeepSeek R1 和 Ollama)来搭建一个智能系统,让它帮你从 PDF 里找答案。这个系统叫 RAG(检索增强生成),简单来说就是:先找资料,再生成答案。
24
0
0
0
AIdeepseek
vLLM(Virtual Large Language Model)是由加州大学伯克利分校团队开发的高性能大模型推理框架,其核心特点围绕显存优化、高吞吐量、灵活性和易用性展开。对比 ollama 作为个人开发者部署模型工具而言,vLLM 专注于高并发请求和大规模生产环境,适用于企业级应用和需要高效推理的场景。vLLM 通过优化内存管理和并发处理,适合处理高负载的生产环境 ‌。核心创新:借鉴操作系统
49
0
0
0
大数据社区征文
博主这里的大数据量、高并发业务处理优化基于博主线上项目实践以及全网资料整理而来,在这里分享给大家线上业务后台项目有一个消息推送的功能,通过上传包含用户id的文件,给指定用户推送系统消息上传文件类型选择通常情况下大部分用户都会使用excel文件,但是相比excel文件还有一种更加推荐的文件格式,那就是csv文件,相比excel文件它可以直接在记事本编辑,excel也可以打开cvs文件,且占用内存更少
242
1
0
0