今日凌晨,GLM-4.7团队在海外AMA分享了一切

大模型GPU机器学习

就在今天(12月24日)凌晨,智谱 GLM-4.7 背后的核心研发团队在海外 Reddit 社区举办了一场高强度的 AMA(Ask Me Anything)。

picture.image

作为一直在追踪 GLM 系列的开发者,我第一时间研读了这场跨洋对话。如果说之前的发布是“秀肌肉”,这场 AMA 则彻底揭开了 GLM-4.7 变强的“底层心法”。

几个核心内幕让我印象深刻,也完美解释了我后续实测中的震撼体验:

算力与决心的“暴力美学”: 研发团队透露,打造一支顶级的后训练(Post-training)团队,至少需要十余名顶尖研究员配合 2000块 H100/H800 GPU 的算力储备。而且,实验环节的算力消耗往往是最终训练的数十倍。这种量级的投入,是 GLM-4.7 能缩小与中美顶尖模型差距的硬门槛。

picture.image

不仅写代码,更懂“审美”: 很多人惊讶于 GLM-4.7 写出的前端页面不再是千篇一律的“蓝紫渐变”风。秘密在于,团队引入了 VLM(视觉语言模型)进入数据管道,让模型学会了分辨什么是“美”,从而提升了前端开发的“品味”。

picture.image

“思考”的进化: 为什么它能处理长程任务?团队揭秘了“交错式思考(Interleaved Thinking)”与“保留式思考(Retained Thinking)”机制。模型不再是盲目行动,而是在每一步工具调用前先思考,并且在多轮对话中“记住”之前的思考链路。

picture.image

直指 AGI: 面对关于 2026 年的目标,团队的回答简单而有力——“全力备战通往 AGI 的征程”。

picture.image

带着这些来自研发一线的“内幕”视角,再来看我最近对 GLM-4.7 的实战评测,你会发现,这一切的强大都有迹可循。

前一段,项目忙得脚不沾地,开发人手根本调配不过来,眼看就要延期。无奈之下,我们一个从未学过写过代码的产品经理小伙伴,硬着头皮拿起 AI 使用 “Vibe Coding” 成为了研发组的一员。

说实话,这个安排我是心惊胆战,生怕 AI 写的代码逻辑稀碎,导致项目延期甚至无法正常交付。

但是,结果却彻底颠覆了我的认知:他凭一己之力,在一周内把前端、后端、产品逻辑全部搞定!

而且在进行项目review时,专业的研发都看傻眼了,这种复杂度,原本配一个前端一个后端磨一周都未必能完工。更绝的是,AI 做的很多交互细节,比专业开发还要细。

这属实是我没有想到的,因为我还停留在那个,AI写脚本可以,但是写大项目不行的认知里。而现在,我想大家都要更新自己的认知了。

今天,看到GLM-4.7模型的各方评价还有官方发布,能看得出来底气十足。不过,无论是千卡H100的暴力美学,还是最新的“保留式思考”,终究要落到代码上。

我们迫不及待把GLM-4.5接入了项目,实测完几个案例后,那份“一人顶一个团队”的震撼,如今在 GLM-4.7 身上也得以展现, 现在的GLM-4.7,绝对可以称得上是 Claude 4.5 的最强替身。

0 1

GLM-4.7 全面进化

先看看数据上的的全维度进化:

Coding 能力领先: 在全球百万用户参与盲测的 Code Arena 中,GLM-4.7 拿下了开源第一、国产第一,评分甚至超过了 GPT-5.2-medium。

picture.image

“先思考,再行动”: 它引入了交错式思考与轮级思考,不再是盲目堆砌代码,而是像资深架构师一样先进行长链条推理。在多轮对话中,它能自动保留思考块,这意味着长程任务的逻辑连贯性极强。

工具调用 SOTA :在交互式工具调用评测中,GLM-4.7 以 87.4 分超越了 Claude Sonnet 4.5。

picture.image

0 2

案例实测

Case1:5分钟撸出一个“体感游戏”

过去 AI 写游戏只是写个逻辑,现在的GLM-4.7 直接把“软硬结合”玩明白了。

提示词:一个飞机大战的小游戏。要求能够调用摄像头,基于摄像头的内容,通过识别手指指令操控飞机的移动。本地静态服务运行,HTML+JS实现。

结果: 5 分钟,一套基于 HTML+JS 的完整代码直接跑通。从摄像头权限调用到实时手势识别映射,逻辑行云流水,重点是,这是GLM-4.7一把就生成的效果。

Case2:字符世界“练习生”

提示词:我想把视频转成ASCII字符,让ASCII字符动起来。给我做一个视频转ASCII字符的工具。

一句话指令,GLM-4.7 就写出了一个视频转字符串的工具。 仔细放大实测画面,右下角都是一个个精确映射的字符。

Case 3:实际一线复杂任务测试

这是最能体现 GLM-4.7 “思考深度”的案例。面对一个包含前后端联调、断点续传、OSS 接入、哈希校验、上传进度条的复杂实际项目需求:

提示词: 这是一个视频剪辑相关项目的前后端项,请你先了解下这个项目。然后帮我解决这几个项目问题:

1、现在前端上传大文件会超时,因为上传时间比较长,导致网关超时。现在把上传,修改为前端分片,后端接收并传给oss进行上传。

2、给前端加上合适的上 传加载动画,按照真实进度。

3、现在上传时,相同的文件会多次上传,我期望上传重复文件(用哈希值判断)时,直接返回文件信 息,不再重新上传。

4、你直接修改前端、后端、对接口,然后直接启动程序

picture.image

这条指令,让 GLM-4.7 连续运行了半小时,一口气跑了 两百万 Tokens。

picture.image

可以看下这套逻辑,如果换做专业开发,去理顺这套前后端逻辑、写完代码再调试通过,少说也要两天。

picture.image

而 GLM-4.7 交出的答卷堪称完美:

picture.image

精准的接口设计: 一共写了 4 个接口(哈希判断、分片初始化、分片上传、合并上传),逻辑严丝合缝。

真实的交互体验: 百分比进度条不是“假动作”,而是真正的后端实时同步。

picture.image

picture.image

极高的逻辑闭环: 它不仅写完了代码,还主动考虑到了异常处理。比如网络波动时的分片重试机制、以及 OSS 存储策略的优化。

对指令的理解、对后端逻辑的设计以及前端接口调用时机等,都遵循的非常准确。

这种主动查漏补缺的能力,说实话,已经把很多中级开发工程师比下去了

GLM4.7融入claude code的深度协同能力、在复杂任务的执行上,确实有了很明显的提升,之前能一次性准确完成这些指令的,也就是claude4.5了,现在的GLM-4。7可以算是claude的最佳国产平替。

03

这是一个想法即代码的时代

从产品经理单挑全栈项目,到 GLM-4.7 刷新各项 SOTA,我们正处在一个“想法即代码”的平权时代。

GLM-4.7不仅仅是一个对话框,更是一个能帮你解决“脏活累活”、甚至能主动思考产品质量的 AI 架构师。

最后,GLM Coding Plan 已全面支持GLM-4.7,为我们提供了性能、速度与价格的最优组合。

并且作为本次升级的首个体验权益,所有购买套餐的用户将获得 「体验卡」礼包,可邀请 3–7 位新用户免费体验 7 天套餐权益。

如果你厌倦了来回调试 AI 的“垃圾代码”,或者正在寻找 Claude 的最强平替,那么 GLM-4.7 绝对是你目前最值得尝试的生产力杀手锏。

建议你试一下GLM-4.7,他能给你新的体验。

现在套餐充值,都可以获得体验卡赠送给朋友,下方是我的5张免费7日的体验卡,送给小伙伴们(先到先得):

picture.image

我在使用GLM Coding Plan,赠送你1张7天AI Coding体验卡,一起来用吧:https://www.bigmodel.cn/activity/trial-card/ZN0MDY8EBZ

如果你需要购买,首购四折非常划算,这里直达:

picture.image

最后,看到这里是凤毛麟角,也好久不抽奖了。 这次评论区抽3个小伙伴送价值200/月的GLM Coding Pro 。

支持国产,也鼓励大家多多尝试AI编程!

我是梦飞,我们下次见。

往期推荐

硬盘崩了,用 AI 抢回了十几万损失

国内AI视频天花板!首发字节王炸

豆包1.8首测「单轮千帧」极限测试

秘塔把Google学习神器「搬」过来了!

AI 笔记下半场:把思考还给自己

刚刚!大厂围剿豆包手机,智谱掀桌开源

强主体弱镜头Seedance首尾帧测评

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
veRL for Training Coding Agent
随着DeepSeek R1的火热,强化学习的训练范式成为目前LLM post training的主流。本次分享将介绍如何使用开源框架verl训练一个foundation model来服务coding agent。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论