大家好,我是 ChallengeHub 的成员致Great。
时间过得太快了,转眼 2025 年就要翻篇了。这一年,感觉自己像个“杂家”,东搞搞西搞搞,虽然做得不深,但确实在 AI 的浪潮里折腾了不少事儿。今天不整那些高大上的学术报告和复杂原理,不谈那些让人“焦虑”的新技术,就想和大家像朋友一样唠唠嗑,聊聊这一年我用 AI 做了啥,踩了哪些坑,又有哪些“真香”的时刻。
说实话,这一年CHallengeHub写了不少文章,大部分是经过挑选和小编整理加工之后的。中间确实用了AI辅助工具,但我一直有个原则:尽量把复杂的概念“翻译”得通俗易懂,让大模型辅助将知识讲的通俗化。如果哪里写得不好,还请大家多多包涵。
下面就来盘点一下我的 2025 AI 工作总结与感想
一、 大模型技术的“狂飙”:强化学习与 DeepSeek
今年大模型圈子里,强化学习(RL) 再次成为了显眼包,特别是 DeepSeek 的表现,让大家对 RLVR(基于强化学习的垂直推理)充满了热情。
1. 让我印象最深的算法:GRPO
DeepSeek 背后有个核心数学原理叫 GRPO (群体相对策略优化)。
咱们通俗点理解:以前的 PPO 算法像是一个老师改卷子,不仅要看学生答案(Actor),还得有个专门的评分员(Critic)去打分,这很占内存。
GRPO 就聪明多了,它不需要那个专门的“评分员”。它的做法是:给同一个问题,让模型生成一组(比如8个)答案,然后让这些答案“内卷”,互相比较。比平均水平好的奖励,差的惩罚。这就省了一大半显存,特别适合咱们用来训练推理能力强的模型。
我自己也用TRL包里的GRPOTrainer试了试,确实好用。比如训练一个数学推理模型,只需要定义好奖励函数(比如检查答案是否在\boxed{}里,是否和标准答案一致),剩下的交给GRPO就行了。最重要的是,它真的能让模型学会"自我反思"——看到错误答案会自己纠正,这种能力在传统微调里很难出现。
一开始在和鲸社区进行了直播分享,后续看到很多论文也是加上GRPO等强化学习算法做成一篇研究工作,可以说工业界和学术界火的一塌糊涂,说实话后续也没有围绕这个方向去做一些扎实的工作,主要原因没有这个需求,算力也不够,只能玩玩DEMO体验下。
DeepSeek 背后的数学原理:深入探究群体相对策略优化 (GRPO)
使用 GRPO 和 OpenEnv 微调小型语言模型实现浏览器控制
2. 2025年流行的那些“O”们
除了 GRPO,今年还有好几个算法挺火,我简单总结下我的理解:
- PPO :老当益壮,虽然在大模型上略显笨重,但主打一个稳字。
- GRPO :DeepSeek同款,最大的优点就是省显存。我用8B的模型训练时,显存占用比PPO少了快一半。特别适合我们这种个人开发者和小团队。
- GSPO :DeepSeek 那个 GRPO 的进阶版,更注重长文本的整体逻辑,适合 MoE 模型。
- DAPO :工业界的“实干家”,会自动过滤太简单或太难的样本,专攻数学竞赛这种硬骨头。
- BAPO (旧数据的春天):如果你手里有一堆历史训练数据,BAPO能让你充分利用起来。它通过动态平衡正负样本,防止模型变得"保守"或者只会输出重复内容。
- ARPO :专门给 Agent(智能体)用的。它不光看结果,还盯着中间步骤,防止 Agent 在调用工具时第一步就选错。
说实话,今年RL算法这么多,刚开始我也挑花了眼。后来发现,其实不用每个都精通,关键是要知道什么场景用什么算法。比如:
预算紧张?用GRPO 做长文本?用GSPO 打榜冲分?用DAPO 做Agent?用ARPO
以后在26年去做一些相关的工作,哪怕在一个小领域一个小模型上去做验证,不给自己拖延找理由了。
二、 Vibe Coding:从“蹭号”到“正规军”的编程体验
今年最火的词儿绝对有 Vibe Coding 一个席位。啥是 Vibe Coding?说白了就是一种“跟着感觉走”的编程状态,把繁琐的代码实现交给 AI,我们只负责设计和把关。
说到用AI写代码,今年真是一路折腾过来的😅
- 最开始:在ChatGPT的对话界面让模型写代码。写完复制粘贴到IDE,发现有bug再回去改。效率低不说,来回切换特别烦。
- 然后:用上了GitHub Copilot,体验好了很多。但有时候它的建议不太符合我的项目上下文,还是需要手动调整。
- 有段时间:后来发现了 Trae,感觉打开了新世界的大门。
- 接着:发现了Cursor!这个真的是革命性的。它能理解整个代码库的上下文,写出来的代码质量明显提高。而且Chat功能特别好用,可以直接在编辑器里和AI讨论代码逻辑。
- 再然后:开始用Cursor的付费版,但一开始不想花钱,就在某宝和咸鱼上买账号。结果发现这些账号极其不稳定,经常用着用着就不能用了。前前后后买了好几次,算下来花的钱也不少。今天买一个,明天挂了;后天再买一个,又不稳定。那种写代码写到一半突然断连的感觉,真的想砸键盘。
- 最后:还是狠下心买了官方账号。虽然贵一点,但稳定性好太多了。而且想想每天省下来的时间,其实很划算。
- 现在的感受是:好的工具真的值得付费。Cursor现在是我每天使用时间最长的工具之一,几乎所有代码都是在它的辅助下完成的。特别是:
- 多文件编辑功能:可以同时修改多个相关文件
- Composer模式:适合从零开始创建新功能
- 智能补全:基本上能猜到我想写什么
- Chat功能:遇到问题直接问,比去StackOverflow快多了
今年还出现了很多其他Vibe Coding工具,比如Windsurf、Bolt.new、v0等。每个都试了试,各有特色。不过Cursor依然是我的主力。现在有些基本代码,工作流开发我会事先描述好需求,生成一个markdown,是不是可以叫做Skills.md,然后拖拽到编程工具对话框,有时候会加上项目的其他依赖代码,
现在的产品体验确实越来越好了,那种在 Context 中自由切换,让 AI 懂你的代码库,直接“生成”而非“编写”的感觉,一旦习惯了就真的回不去了。有了大模型之后对于前端小白的我简直是福利!
三、 RAG 的进阶之路:从 TrustRAG 到 Agentic RAG
1. 开源项目:TrustRAG
首先要感谢各位老师同学对 TrustRAG 的支持,居然收获了 1K Star,受宠若惊!🌟
TrustRAG 是一个模块化的 RAG 框架。说实话,今年因为个人精力有限,主要是在上半年修修补补,解了一些 BUG。下半年虽然动作不大,但我也补齐了文档。接下来的目标是对齐几个主流框架,把算法系统做得更完善些。
比如一些开源框架:
- 腾讯的WeKnora:https://github.com/Tencent/WeKnora
- RAG-Anything:https://github.com/HKUDS/RAG-Anything
没记错的话,这两个框架都是今年新出的,但是他们Star数量在几个月内涨到了10k,自己对比了一些维度,感觉TrustRAG目前相对比较轻量级,类似个人项目或者Demo级别,没有成熟的UI界面以及知识库管理界面,也没有很突出的特色,可能我感觉对大家的帮助反而是新手上手以及RAG学习上更有帮助。TrustRAG比较尽量轻量级,一些模块实现基本上是手搓的,可改性比较高,现在有人问我如何使用的话,我建议是直接使用源码,然后通过from src import trusrag这样子使用当然后续这个项目也会继续维护下去,主要会对齐一些主流RAG框架功能和前端实现。
2. RAG 的新形态:Agentic RAG,从被动到主动
2024年我们还在搞基础 RAG,2025年已经是 Agentic RAG(自主代理式 RAG) 的天下了。
“ 今年RAG最大的变化,就是从"被动检索"变成了"主动探索"。以前的RAG就像是图书管理员,你问什么它查什么。现在的Agentic RAG更像是一个研究助手,会自己思考、规划、纠错。
以前的 RAG 像个只会查字典的书呆子;现在的 Agentic RAG 像个有脑子的研究员。它能自己决定:
- “这个问题太难,我要先拆解一下。”(Query Planning)
- “搜出来的东西不对,我要换个词重搜。”(Self-Reflection)
- “这部分信息够了,那部分还得去谷歌一下。”(Routing)
这一年,我研究了像 TrustRAG 、Self-Reflective RAG 甚至 Speculative RAG (猜测式 RAG)等多种架构,感觉未来的 RAG 一定是“会思考”的,把今年研究的Agentic RAG方法总结了7种:
1. Agentic RAG Routers(智能路由) 这个就像是一个交通指挥中心,根据问题类型自动选择最合适的检索工具。比如问"最新的AI新闻",它会用Web搜索;问"公司内部文档",它会用向量搜索。我在厦门国际银行的比赛中就用到了这个思路。
2. Query Planning Agentic RAG(查询规划) 把复杂问题拆成多个子问题,然后并行检索。这个方法特别适合那种"既要…又要…"的复杂查询。比如"比较A和B两家公司的财务状况,并分析市场趋势",它会拆成3个子查询分别处理。
3. Adaptive RAG(自适应RAG) 这个是我最喜欢的!它会根据问题复杂度自动选择策略:
- 简单问题("巴黎是哪个国家的首都?")→ 直接回答,不检索
- 中等问题 → 单步检索
- 复杂问题 → 多步迭代检索
就像人一样,不是所有问题都需要查资料的嘛。
4. Agentic Corrective RAG(纠错式RAG) 这个方法会给检索到的文档打分,如果发现文档质量不行,会自动重写查询词、进行Web搜索来补充信息。我在比赛中用过,确实能提高答案准确率。
5. Self-Reflective RAG(自我反思式RAG) 最酷的是它会"自我反思":
- 检索到的文档相关吗?不相关就重新检索
- 生成的答案有没有"幻觉"?有就重新生成
- 答案回答了问题吗?没有就继续迭代
就像一个负责任的学生,会不断检查自己的答案。
6. Speculative RAG(推测式RAG) 这个方法很有意思,用一个小模型快速生成多个答案草稿,再用大模型来挑选最好的。既快又准,特别适合对响应时间有要求的场景。
7. Self Route Agentic RAG(自路由RAG) 让模型自己判断:这个问题我能不能回答?不能的话是用短上下文还是长上下文?这种"自知之明"能大大提高系统的可靠性。
[告别幻觉] DeepSeek-V3.2 + Docling:如何极简地搭建具有“反思能力”的 Agentic RAG 系统?
RAG不需要切块向量化了?通过PageIndex构建Agentic RAG
3. Context Engineering(上下文工程)
大家以前总说“提示词工程(Prompt Engineering)”,现在升级了,叫 Context Engineering 。
区别在哪?提示词是你对 AI 说的一句话,而上下文工程是你给 AI 搭建的一个“工作台”。这包括怎么抽取信息、怎么压缩记忆、怎么让 AI 记住它昨天干了啥。这才是构建复杂应用的关键。
今年最大的感悟是,光会写Prompt已经不够了,得学会做"Context Engineering"(上下文工程)。
以前我们写Prompt,就是想怎么把一个问题问清楚。现在做Context Engineering,是要考虑:
- 给模型提供什么背景信息?
- 这些信息怎么组织?
- 什么时候动态检索新信息?
- 怎么管理对话历史?
- 工具调用怎么更高效?
举个例子,我做Deep Research项目的时候,给搜索规划Agent设计的系统提示就包括:
- 高层指令 :"你是一位专业的研究规划师"
- 用户输入的结构化 :用XML标签包裹查询
- 详细的输出格式说明 :JSON schema、字段类型、取值范围
- 动态上下文
:当前时间(用
{{ $now.toISO() }}获取) - 约束条件 :比如"创建2个子任务"
这些细节决定了Agent的表现。Context Engineering就是要把这些细节都考虑清楚,构建一个完整的"工作环境"。
Anthropic的文章《Beyond Prompts》里提到,Context Engineering的核心是:在有限的注意力预算下,提供最小但信号最强的token集合 。
就像你给助手布置任务,不是简单说"帮我查个资料",而是要说清楚:
- 查什么主题?
- 需要哪些维度的信息?
- 信息来源有什么要求?
- 结果用什么格式给我?
- 有什么需要特别注意的?
今年在这方面的实践让我深刻体会到,做好AI应用,工程能力和算法能力同样重要。
Context Engineering:从Prompt Engineering到上下文工程的演进
“ Context Engineering本质实现上可能和Prompt Engineering大同小异,主要通过指令,上下文来调动大模型来完成任务
四、 赛场实战:我的“短平快”方案
今年也凑热闹参加了几个比赛,虽然不是最顶尖的大佬,但也摸索出了一些“短平快”的实战经验。
1. 厦门国际银行比赛(RAG赛道)
怎么短平快地把RAG做好:厦门国际银行RAG初赛方案分享
整体解决思路是:构建从多源数据解析到智能推理的四层架构,通过RAG检索增强、多智能体编排,实现金融文档的智能问答与合规审查。
这个比赛的初赛任务是做金融监管制度的智能问答,典型的RAG场景。我大概用了10天时间就冲到了Top 10,虽然不是第一(确实好奇前排大佬的方案😂),但对于时间有限的我来说,已经很满意了。
核心思路 :
文档解析 :用TrustRAG的DocxParser把文档解析成结构化数据,统计token长度、检测表格等。发现大部分文档token在1600左右,但直接把整个文档喂给模型效果并不好——信息密度太稀疏了。
文本切块 :试了256和512两种chunk_size。256的精度高,512的上下文更丰富。最后发现256的召回率最好(94%+)。
混合检索 :BM25(0.3权重)+ Dense检索(0.7权重)+ BGE-reranker重排序。这个组合的效果明显比单一方法好。
Prompt设计 :针对选择题和问答题分别设计了专门的Prompt。选择题强调"逐一验证""精确对比",问答题强调"五步推理"。这个很关键!
模型微调 :用Qwen3-8B + QLoRA微调,训练数据是基于检索结果构造的指令数据集。微调后效果提升明显,和前排的差距明显缩小了。
多模型融合 :用不同配置(不同chunk_size、不同embedding模型)训练多个模型,最后通过投票融合。选择题用多数投票,问答题用语义相似度投票。
经验教训 :
- 表格解析很重要,但我偷懒了,假设问题不会问表格内容(后来发现还真没有😅)
- 有些问题太难了,答案就在一句话里,检索很容易漏掉
- 有些答案分布在多个chunk里,需要确保召回全面
- 有些问题其实不需要检索,模型本身就能回答
最大的收获是:RAG是个系统工程,每一步都很重要 。不要想着一步到位,要不断迭代优化。
复赛阶段采用了基于多智能体协作的金融文档智能审查方案,从单一RAG模型转向专业化分工的多智能体架构,整体架构如下:
复赛的核心思路是构建“专业化分工”的智能体集群。通过大语言模型的多层次智能分析,实现从文档分类、标准应用、风险识别到修改建议生成的完整闭环 。
整体架构分为四层 :
- 数据源与解析层 :处理Word、Excel、PDF及多模态数据,进行结构化存储 。
- 模型层 :包含文档解析模型(提取器)、大语言模型(违规识别器)和智能体模型(规划控制器) 。
- 推理层 :执行多智能体编排,涵盖营销违规、短信违规、利率检测等具体场景 。
- 结果层 :进行结果合并、汇总、去重以及制度依据生成 。
核心技术一:多智能体集群构建
团队构建了11个专业化智能体 ,针对不同的审查维度进行“专人专办”,感觉比较关键的地方是如何挖掘出来审查制度条例和我应该构建哪些智能体,如何让整个系统解决问题的覆盖率最高,泛化性最好
我总结下来是基于大语言模型的多层次智能分析,实现文档类型自动分类 → 针对性审查标准应用 → 增量构建审查智能体 →违规风险精准识别 → 具体修改建议生成的完整闭环。
核心技术二:制度法规体系挖掘
为了让智能体有据可依,团队建立了涵盖6大类别的制度法规参考体系 :
- 理财产品 :检查预期收益率宣传、风险提示 。
- 基金代销 :检查广告标识、合作机构声明 。
- 保险代销 :检查犹豫期条款、投保人权利 。
- 个人贷款 :检查投诉渠道、年化利率披露 。
- 营销宣传 :检查广告法合规、免责声明 。
- 其他参考 :消费者权益保护等综合检查 。
通过挖掘潜在识别场景,结合审查要点示例和数据标注样例的双重指引,为智能体提供了明确的方向 。
核心技术三:上下文工程与流程优化
在复赛中,上下文工程(Context Engineering)被提升到了关键位置:
- 数据接入与增强 :统一接入PDF/JSON数据,进行文档智能审查的上下文增强与窗口管理 。
- 流程定制 :包括智能摘要、制度提取、RAG检索、排序去重等步骤 。
- 多模态处理 :通过视觉语言模型处理图像文档,解决了传统处理中的信息缺失问题 。
提分策略与资源分配
团队采用了精细化的资源分配策略来提升榜单成绩 :
- 第一梯队(投入80%资源) :CharDetectionAgent(错别字)、AdTagAgent(广告标识)、RateAgent(利率)。这些是高频且容易标准化的得分点 。
- 第二梯队(投入15%资源) :RuleAgent、MessageAgent、TimeAgent。用于完善专业判断能力 。
- 第三梯队(投入5%资源) :其他专业场景智能体,保证功能完整性和边缘案例处理 。
最终我们团队取得决赛第二名的成绩,这个比赛过程比较漫长历时三个月,也让自己从demo玩家真正的有机会去解决一个实际业务问题。
2. 科学家挑战赛ICAIS 2025
这个比赛有两个赛道:"文献综述"和"论文评审",都是很硬核的学术任务。
难点 :
- 文献综述 :篇幅长、逻辑复杂、需要构建Taxonomy(分类体系)
- 论文评审 :需要批判性思维,定量评分和定性评语要高度一致
我们的团队方案 :构建了一个多智能体协作框架 ,包括:
- 大纲规划Agent :负责生成综述的整体结构
- 意图搜索Agent :根据大纲搜索相关文献
- 内容写作Agent :负责章节撰写
- 评审Agent :负责质量检查和修订
整个流程采用"规划-执行-反思"的闭环机制。比如写作Agent写完一个章节后,评审Agent会检查:
- 逻辑是否连贯?
- 引用是否准确?
- 是否有遗漏的重要文献?
如果发现问题,会反馈给写作Agent修改,形成一个持续优化的循环。
最让我自豪的是,论文综述/论文评审评测任务获得 第二名/第三名,这个系统真的能产出专家级的文献综述和论文评审!当然,计算成本也不低😂
3. CCL 2025叙实性推理(一等奖🎉)
这个任务很有意思,是要判断事件的真实性。比如:
- "他 相信 明天会下雨" → 不确定明天是否真的下雨
- "他 意识到 门没锁" → 门确实没锁
- "他 谎称 自己在家" → 他其实不在家
核心挑战 :
- 需要理解不同动词的叙实性特征
- 要考虑肯定/否定语境的影响
- 需要逻辑推理能力
我们团队的方案 :
层次化思维链(HCoT) :引导模型逐步识别关键谓词,分析其叙实性特征。比如:
第一步:识别关键动词 → "相信"
第二步:判断叙实性类型 → 非叙实(不预设真假)
第三步:考虑语境 → 肯定句
第四步:得出结论 → 无法判断真假
多模型集成投票 :用不同的Prompt策略训练多个模型,最后投票决定答案。这个方法在复杂case上特别有用。
模型微调 :在叙实性推理数据集上微调推理模型,让它更好地理解这类任务。
最终在双赛道都拿了第一/第二名,还是很开心的!
这个比赛让我意识到,好的Prompt设计 + 推理引导,真的能显著提升模型在专业任务上的表现 。
五、 私房货:我最常用的提示语与代码
写了这么多,给大家来点干货。这是我平时处理学术论文时,最常用的一套抽取 Prompt 和 JSON 修复函数 。亲测好用,直接拿走不谢!
1. 提取神器 (Prompt)
“ 角色定义,上下文补充以及任务描述,最后是格式要求,我一般约束是json输出
dataset\_extraction\_prompt = {
"zh": '''你是一位专业的学术研究助手,擅长从学术论文中抽取数据集和评测信息。
请仔细分析以下论文内容,抽取其中提到的所有数据集信息。
## 论文标题
{title}
## 论文内容
{content}
## 抽取要求
请从论文中识别并抽取以下信息:
1. 数据集名称
2. 数据集描述/用途
3. 任务类型(如分类、回归、生成、检索等)
4. 评测指标(如准确率、F1分数、BLEU、ROUGE等)
5. 实验结果/性能数据
6. 数据集规模信息
7. 数据集来源/发布机构
## 输出格式
请严格按照以下JSON格式输出,不要包含任何其他文本:
{{
"datasets": [
{{
"name": "数据集名称",
"description": "数据集描述和用途",
"task\_type": "任务类型",
"metrics": ["评测指标1", "评测指标2"],
"performance": "实验结果描述",
"scale": "数据集规模信息",
"source": "数据集来源",
"domain": "应用领域"
}}
]
}}
注意:
- 如果论文中没有明确的数据集信息,请返回空的datasets数组
- 确保JSON格式正确,可以被解析
- 只抽取明确提到的数据集,不要推测或添加不存在的信息
- 如果没有metrics,对应为空即可
- 要注意抽取的信息都为英文,不要是中文,尤其名称
''',
}
2. 炸毛 JSON 的救星 (Python Function)
大模型输出 JSON 经常会带各种 Markdown 符号,这个函数能自动修好它,我忘了这个函数是在哪看到的还是大模型写的了,我是从年初用到了年终,真的太实用了,还有小工具是json_repair,大家可以关注下,也欢迎大家分享自己的最实用函数
import logging
import json
logger = logging.getLogger(\_\_name\_\_)
def repair\_json\_output(content: str) -> str:
"""
Repair and normalize JSON output.
"""
content = content.strip()
if content.startswith(("{", "[")) or"```json"in content or"```ts"in content:
try:
# 去除 markdown 代码块标记
if content.startswith("```json"):
content = content.removeprefix("```json")
if content.startswith("```ts"):
content = content.removeprefix("```ts")
if content.endswith("```"):
content = content.removesuffix("```")
# 尝试修复并解析
repaired\_content = json.loads(content)
return json.dumps(repaired\_content, ensure\_ascii=False)
except Exception as e:
logger.warning(f"JSON repair failed: {e}")
return content
DeepResearch:面向科研场景的深度研究Agent
今年最大的项目就是DeepResearch,这个想法其实很简单:能不能让AI帮我做文献调研?
传统的文献调研太痛苦了:
- 在多个学术平台搜索关键词
- 筛选相关论文(几百篇里挑几十篇)
- 下载PDF、阅读摘要
- 提取关键信息、做笔记
- 整理成综述或报告
这个过程经常要花好几天。能不能让AI自动化完成呢?
DeepResearch的架构 :
搜索规划Agent :
- 分析用户查询
- 生成多维度的搜索子任务
- 指定搜索来源(学术数据库、新闻、Web等)
- 设置时间范围和优先级
信息检索Agent :
- 执行搜索任务
- 爬取论文元信息
- 下载并解析PDF
- 提取关键内容
内容写作Agent :
- 生成大纲
- 撰写各个章节
- 引用文献
- 保持逻辑连贯性
质量评审Agent :
- 检查事实准确性
- 验证引用正确性
- 评估逻辑完整性
- 提出修改建议
整个系统可以在几十分钟内完成一份几千字的文献综述,质量还不错!当然,还需要人工审核和润色,但已经节省了大量时间。
技术亮点 :
Context Engineering :精心设计每个Agent的系统Prompt,包括角色定义、工作流程、输出格式等。
Memory管理 :用向量数据库存储已处理的文献,避免重复工作。
工具集成 :集成了学术搜索API、PDF解析、文本提取等工具。
多轮对话 :支持用户反馈,Agent可以根据反馈调整策略。
我还基于DeepResearch写了一篇小论文,关于深度研究评估方向的,投到了信息检索相关的会议,会议录取了,目前在投到期刊上,第一次写论文,但是感觉还是问题很大的,编辑那边给了修改意见,还需要好好优化和把工作完善好。虽然还在审稿中,但这个项目确实让我对AI在科研中的应用有了更深的理解。
未来计划 :
- 支持更多学术数据库
- 改进PDF解析(表格、公式识别)
- 加入论文质量评估
- 支持多语言文献
其实这里做了很多工作,我几乎有8个月的时间在投入在Deepresearch,目前我们内部系统已经上线并在内测中,后续会公网开放,有很多技术细节三言两语无法说完,上面我让大模型简单帮我总结了下,欢迎大家留言或者私信交流
六、 尾声与致谢
最后,真的非常感谢 ChallengeHub 社区 的各位粉丝们。感谢大家的点赞,分享以及留言,包括建议等等,也感谢社群维护的伙伴们。 我知道我做的事情比较杂,也不够深入,很多时候是靠 AI 帮我理清思路、输出文章。但我唯一的初衷,就是希望尽量把这些枯燥的技术讲得通俗一点,帮助大家哪怕多理解那么一点点。后续社区也会选取一些维度做一些垂直深度的分享,并形成合集
2025 过去了,2026 继续折腾!希望大家都能在 AI 时代找到自己的节奏。
添加微信,备注” LLM “进入大模型技术交流群
如果你觉得这篇文章对你有帮助,别忘了点个赞、送个喜欢
/ 作者:ChallengeHub小编
/ 作者:欢迎转载,标注来源即可
