刘聪NLP
刘聪NLP
云原生大模型向量数据库容器
这篇中间难度的科普文,致力于用通俗易懂的方式解释MCP是什么。同时附上两个实操代码,教你如何使用MCP。
50
0
0
0
开源大模型向量数据库云安全
廉颇老矣~~
45
0
0
0
开源大模型向量数据库数据库
今天给大家带来一个开源的Deep Research框架WebThinker。
350
0
0
0
云原生大模型向量数据库机器学习
在近期业务优化中尝试将强化学习(RL)技术迁移至两类NLP任务,均取得显著效果提升,跟大家分享一下实验结论。
54
0
0
0
AI大模型向量数据库数据中台
本次记录是在1.5B/3B模型上的实验踩坑记录,比如出现各种奇奇怪怪的情况。。。。。
74
0
0
0
大模型大模型向量数据库机器学习
特点:首个超大Hybrid MamBa模型,推理速度快,效果(Benchmark上)不错,实测见文
52
0
0
0
大模型大模型向量数据库机器学习
Qwen,汪峰属性是直接拉满了! 在Qwen3开源之前,Qwen先把之前的视觉理解多模态大模型补齐了,之前有3B、7B、72B三种尺寸,可能7B有点小,72B消耗资源有太多,32B真是个甜点尺寸。 HF link: https://huggingface.co/Qwen/Qwen2.5-VL-32B-Instruct 之前测试并介绍过Qwen2.5-VL的模型,见<a href="https://mp.weixin.qq.com/s?__biz=Mzg5MTU1NTE1OQ==&amp;mid=2
54
0
0
0
大模型向量数据库大模型云通信
国内Qwen是汪峰,国外Google是汪峰。
80
0
0
0
AI大模型向量数据库机器学习
三月份 字节seed 挂出来两篇论文,分别是做 LongCoT 背景下 PPO 和 GRPO 改进的,都是一些非常小的改动方案,很容易借鉴做一些实验试试
69
0
0
0
大模型大模型向量数据库机器学习
一文带你了解最近开源的视觉推理模型-Skywork R1V
62
0
0
0
AI大模型向量数据库机器学习
系统介绍LLM posting train技术
459
0
0
0
开源大模型向量数据库云安全
Mistral开源24B多模态模型Mistral-Small-3.1,追着Google的Gemma3-27B打
90
0
0
0
AI大模型向量数据库数据库
Gemini2.0-Flash更新,支持图文同时生成,测试了一下蛮有意思的,在Google AI Studio上可以直接使用,见图2。 link: https://aistudio.google.com/prompts/new_chat?model=gemini-2.0-flash-exp 模型选择Gemini2.0-Flash Experimental,输出格式选择Images and Text。 测试了几个,蛮有意思的,效果也还不错。 问:“介绍一下红烧肉的做法,需要图文详解”,效果见图3-9。
79
0
0
0
AI大模型向量数据库云通信
年底见分晓!
305
0
0
0
84
0
0
0
AI大模型向量数据库机器学习
“hybrid model”在标准 transformer 的部分层中引入更高效的注意力机制(如 RNN 或sliding window attention),以替代原有的注意力层,可以有效压缩推理过程的KV Cache。
63
0
0
0
开源大模型向量数据库机器学习
现在,社区很多开源项目都在做base上rl的复现。不同的任务、不同的模版、不同的实验现象层出不穷。很多结果往往令人困惑或者相互矛盾,真体现了“炼丹”至高无上的境界以及当初被随机过程支配的恐惧:随机过程随机过。
69
0
0
0
开源大模型向量数据库机器学习
后宫佳丽三千,可皇上偏偏独宠她一人!
85
0
0
0
大模型大模型向量数据库机器学习
话不多说,线上链接: https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268bb6d 此次开源了4个版本模型,包括1B、4B、12B和27B等4个尺寸,详细概述如图2所示,来自x@danielhanchen。 27B模型使用14T Tokens训练,12B模型使用12T Tokens训练,4B模型使用4T Tokens训练,1B模型使用2T Tokens训练。 输入文本+图片,输出文本,属于多模态理
84
0
0
0
大模型大模型向量数据库机器学习
Light-R1-32B是以Qwen2.5-32B-Instruct作为基模,通过课程学习SFT+DPO,效果超过R1-Distill-32B模型。 link: https://huggingface.co/qihoo360/Light-R1-32B SFT有两个阶段,第一个阶段使用76K的数据进行SFT,在AIME24、25上都没超过R1-Distill-32B,而第二个阶段从76K数据中筛选出3K更难的数据,继续进行SFT,在AIME24、25上都超过了R1-Distill-32B。 还进一步进
91
0
0
0