We're sorry but react app doesn't work properly without JavaScript enabled. Please enable it to continue.
文档
备案
控制台
登录
立即注册
首页
AI 大模型体验中心
动手实验室
Agent 评测集
AI 案例广场
学习中心
社区
去发布
首页
AI 大模型体验中心
动手实验室
Agent 评测集
AI 案例广场
学习中心
社区
架构师李哲
文章
专栏
问答
架构师李哲
DeepSeek V4全网猜测汇总:四大焦点浮出水面
AI
AI开放平台
大模型
AI圈近期的热度,几乎全被DeepSeek V4的相关猜测承包了。恰逢DeepSeek-R1发布一周年,官方GitHub代码库中突然曝光的“MODEL1”标识,瞬间点燃全网讨论热情。开发者拆解代码、外媒爆料动态、行业人士解读技术,各类声音层出不穷。今天我们梳理全网真实信息,聚焦大家最关心的四大核心焦点,看看各方都在热议什么~焦点一:发布时间——春节前后成共识,外媒与代码线索相互印证● 发布时间:关
35
0
0
0
架构师李哲
还在做93道MBTI选择题?我们训了个AI,聊8句就能看透你
AI
深度学习
AIGC
大模型
在上一篇《受够93道MBTI选择题?我调了一个测MBTI的专属AI》发出后,我们收到了不少用户的测试反馈,并在评论区看到了各式各样的回答。许多人感到好奇:为什么仅仅通过8个看似随意的问题,AI就能如此准确地判断一个人的MBTI类型?今天,我们将完全公开这个“对话式MBTI测试”背后的技术细节——从数据集构建、模型训练到评估优化,完整呈现一个专业的人格分析模型是如何被“炼”出来的。这不仅仅是一个有趣
34
0
0
0
架构师李哲
受够93道MBTI选择题?我调了一个测MBTI的专属AI,回答8个问题就出结果,准确率99%
大模型
AIGC
深度学习
大模型
在这个万物皆可MBTI的时代,人格类型几乎成了我们的社交名片。交朋友前先问一下“你的MBTI是什么”,立马就可以对一个人的性格有一个初步印象;就算交朋友用不上,找工作时也逃不过公司面试官的随意一问:“你测过MBTI吗?”于是你在开始网上四处找MBTI的测试链接,结果点开的帖子要不就是在卖链接,要么是 ”私信我”,发去私信之后,又要求关注公众号......折腾了一圈,终于用九牛二虎之力找到了官网免费
5
0
0
0
架构师李哲
当 AI 落地到了“深水区”:到底是 Prompt 不行、RAG 不够,还是该考虑微调了?
AI
AI解决方案
这两年,大家对大模型已经不再停留在“技术演示多酷炫”,而是越来越现实地问一句:“为什么模型看起来很强,但真要放进我们自己的业务里,用起来总差点意思?尤其是——明明接入了私域知识库,效果还是不稳定?”答案往往不在某一个“神技”,而是在你怎么 同时使用 Prompt、RAG 和微调,以及它们和业务的“耦合深度”。 当一个任务效果不达预期,核心问题其实只有三个:● Prompt 写得不对 / 不完整●
39
0
0
0
架构师李哲
16k数据撬动300亿大模型!我用Qwen3-VL打造了一位“顶尖放射科医生”
AI
AI生态
深度学习
人工智能
仅用1.6万张医学影像,我们让大模型学会了“看片子”。患者提问:“请使用中文详细描述这张图像并给出你的诊断结果。” 这是微调前模型的回答。虽然能够识别出基本病变,但其分析存在明显不足,描述过于简略,仅关注单一病灶而忽略了图像中实际存在的双肺多发性结节,且诊断结论过于武断,直接定性为"良性肿瘤",缺乏严谨的鉴别诊断思路,临床参考价值有限。 这是微调后模型的回答。它成功化身为“严谨的放射科医生”,不仅
239
0
0
0
架构师李哲
当 AI 落地到了“深水区”:到底是 Prompt 不行、RAG 不够,还是该考虑微调了?
开源
AIGC
大模型
开源
这两年,大家对大模型已经不再停留在“技术演示多酷炫”,而是越来越现实地问一句:“为什么模型看起来很强,但真要放进我们自己的业务里,用起来总差点意思?尤其是——明明接入了私域知识库,效果还是不稳定?”答案往往不在某一个“神技”,而是在你怎么 同时使用 Prompt、RAG 和微调,以及它们和业务的“耦合深度”。 当一个任务效果不达预期,核心问题其实只有三个:● Prompt 写得不对 / 不完整●
57
0
0
0
架构师李哲
开源算法能在 2025 年击败 GPT-5 吗?DeepSeek交出了答案
AI
AIGC
开源
大模型
在很多人心里,“顶级推理能力”这几个字,长期等于三个关键词:闭源、大厂、昂贵。GPT-5、Gemini 3.0-Pro 像是少数玩家才能摸到的天花板,开源模型更多还停留在“追赶者”的角色。12月1日,DeepSeek发布的新一代的“双机组合”——V3.2 和 V3.2-Speciale,把这套共识拧了一下:一边是在综合推理上对齐 GPT-5、并且 MIT 协议开源的主力模型 DeepSeek-V3
50
0
0
0
架构师李哲
PPO最强,DPO一般?一文带你了解常见三种强化学习方法,文末有大模型微调神器!
大模型
AI解决方案
很多人第一次接触各家大模型时,都会觉得它们的回答能带来意想不到的惊喜,但有时,AI回答又怪怪的、啰嗦、甚至有点危险。 这背后,其实就是一个核心问题:对齐(Alignment)。 预训练让模型会“说话”,但对齐训练,才让模型更符合人类偏好:更有用、更安全、更有温度。在当下的大模型时代,有三种常被提到的对齐方法:PPO、DPO和KTO。 本期,LLaMA-Factory Online将用尽量
849
2
0
0
架构师李哲
别再烧钱做AI!大模型微调GPU终极指南:从入门到放弃?
AI
AI生态
人工智能
微调7b模型至少要什么显卡?算力低一些的总感觉比不过别人...有没有一种可能,让我普通老百姓也用用H卡? 以上问题是否曾是干扰大家做出选品决策的苦楚?别急,本文将从底层逻辑到实战方案,帮你彻底理清选卡思路。顺带一提,普通人也能接触H卡,只要你的电脑能连上网!已经没有选择焦虑、但想挑战大模型微调训练上限的朋友们,可以直接翻到后面看如何平价入手了! 选卡并非越贵越好,而是追求预算与需求的最优匹配。请先
97
1
0
0
架构师李哲
LMArena中文榜大洗牌:国产大模型包揽前列,GPT-4 Turbo跌出百名开外
大数据
最佳实践
技术解析
Agent
就在百度世界大会前夕,全球最具影响力的大模型评测平台LMArena发布的最新排名,让海外开发者社区发出了"Baidu is back?"的惊叹。这份发布于2025年11月初的榜单显示,国产大模型在中文竞技场上实现了对国际顶尖模型的全面反超,这一突破性进展恰如其时地展现了中国AI技术的迅猛发展。在LMArena最新发布的排名当中,文心全新模型ERNIE-5.0-Preview-1022首次上榜,就登
417
0
0
0
架构师李哲
数据不够怎么办?新加坡国立大学揭秘扩散语言模型的“秘密武器”
大数据
最佳实践
行业趋势
技术解析
当大模型陷入“数据饥渴”,我们是否只能无止境地堆砌算力与语料?新加坡国立大学的最新研究给出了否定答案。本期将深入解读其提出的扩散语言模型(DLM),揭示它如何在有限数据下实现比肩甚至超越自回归模型的性能——这不仅是一场技术路径的革新,更可能是破解当前AI训练数据瓶颈的关键密钥。聚焦过去一周AI领域最具热度与争议性的技术动态与行业事件。快速筛选并解读热点背后的逻辑与影响,追踪技术浪潮的脉搏。 LLM
68
0
0
0
架构师李哲
别再“调教”ChatGPT了!用Qwen2.5打造24小时在线数字分身
AI
最佳实践
行业趋势
技术解析
在人工智能浪潮席卷的今天,一个曾经只存在于科幻作品中的概念正在成为现实:每个人都能拥有专属的"数字分身"。想象一下《钢铁侠》中的经典场景:托尼·斯塔克的智能管家"贾维斯"能够精准理解主人的需求,自主处理各种事务。现在,这样的智能助手不再遥不可及——当你结束一天的工作,你的数字分身正在与客户进行专业交流,每句话都带着你特有的表达习惯;当朋友发来咨询,它能用你习惯的幽默语气给出建议;甚至当家人需要陪伴
45
0
0
0
架构师李哲
我用单张显卡跑了个“法律顾问”,靠它成功追回了加班费
大数据
人工智能
AIGC
大模型
遇到劳动纠纷,你是否也面临这样的困境?翻遍《劳动法》,却找不到能精准对应自身情况的条款。想咨询律师,又因费用高昂、案情梳理不清而难以获得有效指导。试图与公司协商,却因不熟悉法律术语,被HR几句“专业说辞”轻易劝退。上述痛点,正是大模型技术能够发力之处。然而,通用大模型虽强,其知识的静态滞后性与专业领域的“幻觉”问题也尤为突出。为此,我上周在LLaMA-Factory Online的「实例空间」中,
59
0
0
0
架构师李哲
2小时打造专业医疗助手:基于CareGPT与Qwen3-8B的微调实战
大模型
最佳实践
低代码
云计算
凌晨一点,突发剧烈头痛,视力也开始模糊。在这种紧急情况下,使用通用AI助手寻求建议,往往只能得到“请及时就医”这样正确但无用的回答。用户真正需要的,是具备初步症状识别、风险评估和就医指引能力的专业助手。 这正是当前通用大模型在医疗场景中的典型短板:缺乏专业医学知识体系,无法进行症状关联分析回答过于保守,难以提供具针对性的分级建议无法识别症状组合背后的潜在疾病类型差异现在,通过LLaMA-Facto
101
0
0
0
架构师李哲
零代码驯服GPT-OSS!我用LLM模型微调复活了“韦小宝”
AI
最佳实践
行业趋势
Agent
想和康熙皇帝斗嘴?想让林黛玉聊聊元宇宙?过去这只能是幻想,直到我亲手微调了一个AI“韦小宝”。“踢你踢你!”当我向微调前的通用大模型发出这句康熙皇帝的戏言时,它回复我:“作为一个人工智能,我无法理解您的意图……”冰冷的回复,道出了通用AI在角色扮演上的核心短板:人设崩塌:无法持续维系角色的性格、语气和背景知识。缺乏灵魂:回答正确但枯燥,没有角色的“精气神”。互动生硬:像在和一个披着角色外衣的搜索引
159
0
0
0
架构师李哲
【大模型微调】一文掌握5种大模型微调的方法
AI
人工智能
大模型
人工智能与算法
本篇文章深入分析了大模型微调的底层逻辑与关键技术,细致介绍了包括全参数微调(Full Parameter Fine Tuning)、LoRA、QLoRA、适配器调整(Adapter Tuning)与提示调整(Prompt Tuning) 在内的5种主流方法。文章将详细讨论每种策略的核心原理、优势劣势与最佳适用场景,旨在帮助您依据计算资源与数据规模与性能要求与部署成本,在面对如何为您的特定任务从众
172
1
0
0