在上一篇文章《如何用好 o1:用深度推理能力搞定复杂任务》里,有读者留言想了解 o3 的情况。因为 o3 目前还没正式开放给用户体验,但从发布会信息来看,它的能力已经从“大学水平”升级到“博士水平”,未来前景非常值得期待。
为了回应读者的疑问,我用最近在推特上读到的AI搜索公司Exa CEO发表的一篇长文来作为回应,文章相当详细(原文链接:https://x.com/WilliamBryk/status/1871946968148439260)。考虑到有些朋友可能无法直接访问,我用 o1 将其翻译成了中文,分享给各位。强烈建议每个人都读一读,相信你会对AI的未来有更多想法和收获。
以下是全文翻译:
在 AGI 即将到来之际的想法
我这周和好几个朋友聊了 o3。他们的总结性回应基本就是:“我靠,这真的要实现了吗?” 是的,这真的要实现了。接下来的几年将会疯狂至极。这是历史性、甚至可以说是“银河级”的大事件。
更离奇的是,几乎没有任何成熟的讨论来探讨此事。AI 实验室没法(或不便)谈论,新闻也几乎没怎么报道,政府更是不理解。
而我们居然只能通过社交媒体的“梗图”应用推送流去讨论人类的未来,这种感觉就像荒诞情景喜剧——可现实就是如此。
以下是我对眼下正在发生的事的一些想法 —— 我对 X(推特)上“创意深渊”的一点微薄贡献。 请注意,这些想法并不完善,更多只是好玩的推测。我还没来得及深入思考或研究所有细节,而且我很可能在很多地方都错了。但我希望对某些同样在试图消化当前进展的人来说,这些会有点儿意思。
祝你阅读愉快。
- o3 不该让人如此震惊
OpenAI 两个月前已经给我们看过测试时的“规模化图表”,而计算机的发展史也告诉我们,不管看上去多么离谱,都应该相信“趋势线”。真正令人震惊的,是它在短短两个月里就实现了——我们从“大学水平的 AI”跃升到了“博士水平的 AI”。对人类来说,变化总是令人兴奋,但急剧的变化会让人目瞪口呆。 - 接下来会发生什么,其实蛮明显
o3 级别的模型在你能定义“奖励函数”的任何领域都特别擅长做优化。数学和编程的奖励函数相对容易设计,而虚构写作就比较难。所以短期(约 1 年)内,我们会出现一些“峰值”模型:在数学、编程和通用推理上几乎达到 AGI 水平,但写小说之类的东西会比较普通。更好的推理能力确实会让模型在各方面显得更聪明,但如果不是通过强化学习(RL)针对某些特定的训练数据,它们还是会在这些“盲点”里犯下很愚蠢的错误。长远来看(1-3 年),我们会不断在模型里加入新的域进行 RL 训练(如情感数据、感官数据等),把盲点慢慢补上,到那时,这些模型对绝大多数人来说就已经是 AGI 了,除非你是 Gary Marcus(作者注:Gary Marcus是著名的人工智能研究者、心理学家和作家,以其对人工智能的批评和对人类智能的深入研究而闻名,这里引用他有一定的讽刺意味
)。 - 代理(Agents)真的会在 2025 年到来
o3 这类模型肯定能学会在浏览器/应用中进行导航和执行操作,而这类能力本身非常适合设计奖励模型(作者注:奖励模型(Reward Model)指的是一种用来指导 AI 行为或输出的评估机制。它为 AI 设定“目标分数”或“奖励分”,让模型通过不断尝试、修改策略来最大化这个奖励,进而学会做更符合需求的行为或输出
)。而且能自动化电脑上的工作对市场来说潜力巨大,能给烧钱的大型实验室带来正当化理由。我猜到 2025 年 12 月,你就能对电脑说:“去完成任何需要在网页/应用之间跳转并搬运数据的工作流程。”它都能照办。 - 那些最“悬了”的知识分子,应该是数学家
数学家研究的是符号领域,和物理世界接触并不多,所以没有物理世界带来的瓶颈;而大型语言模型(LLM)在符号空间里堪称“王者”。数学看起来很难,其实只是不擅长的灵长类——我们人类——觉得难;对 LLM 来说,跟正则表达式一样,都是符号操控。 一个关键问题是:想要生成研究级别的“合成数据”到底有多难?我猜大概率不会太难。我们看起来“博士级数学”和“研究者级数学”差别很大,但对 AI 来说也许只是多上几个数量级的 RL 而已。我给数学家 700 天的时间(这听起来很疯狂,可要说 o6 战胜数学家不可能也同样疯狂;所以我对这个预测大概五五开,跟本文里其他预测差不多)。也就是说 700 天 后,人类就不再是已知宇宙中数学领域里的“老大”了。 - 那我们软件工程师呢?
短期内会是天堂。每个软件工程师刚刚都升职成为“技术主管”,恭喜啊。对那些全面采用 LLM 的人来说,到 2025 年底,编程会更像“组织一堆小任务,然后让小代理去执行”。 任何需求极其明确的 Pull Request,都可能由 o4 级系统搞定,而且错误率低到可以接受。一个潜在问题是上下文窗口可能不够大,无法一次性容纳整个代码库,但 Sam(OpenAI CEO)之类的领导人显然也清楚这个问题。
AI 会不会很快取代所有软件工程师? 不会。软件工程不只是基于非常明确的提示写几个 PR。和数学家不一样,软件工程师始终要与物理世界——也就是与其他人——打交道。工程师需要了解客户需求,也要和同事协作,这里面牵涉着大量“组织上下文”。o4 无法替代那部分。但 o4 能让握有这些上下文的人快上 10 倍。
如果软件工程师效率提高 10 倍,就可能减少需求? 从单个公司来说,确实团队可以更精简就完成同样输出。但放眼全世界,需求可能会反而增加,因为世界真的能用上更多高质量软件。所以我认为我们将迎来应用的黄金时代,团队规模更精干,却能交付更大量、更个性化的应用给每个人和企业。
再长远一些(> 2 年算长远了,哈哈),软件工程会完全不同,具体怎么变很难说。但当 o6 级别的系统真正出现并全面集成到应用里,前端工程师这类角色可能在 3 年后就不复存在。听起来怪吗?也还好——30 年前也没这个职位嘛。
回过头看,软件每一代都在彻底颠覆自己:它的本质就是把需求转换为逻辑,这个转换过程的抽象层级一直在上升,从二进制到 Python,而现在正上升到英文。 让“英文”成为编程语言将让非技术人员也能参与编码。但最优秀的构建者还是那些可以自由穿梭各种抽象层的人。
简而言之,因为软件工程真正需要的是理解和解决组织需求,所以等到软件工程被完全自动化的那一天,就意味着组织也被彻底自动化了。
6. 刚才提到一些知识工作者,那身体力行的一线工人怎么办?
AI 也会来,但会慢一些,因为需要考虑重力、摩擦等现实条件。“o”这一类模型对机器人领域帮助没有那么直接,因为花一个小时运行推理对工厂流水线上的机器人没多大意义。虽然“基础模型”变得更强确实有帮助,o 级模型也能帮助训练,但我觉得这并不能解决机器人领域面临的最主要瓶颈。我猜最大的瓶颈还是在硬件改进,以及具备快速可靠的感知+行动模型。这些都需要更长时间(好几年)才能取得进展。
当机器人可以制造机器人,且 AI 可以进行 AI 研究时,机器人领域才会出现惊人飞跃。o 类模型或许能促成这点,但我觉得还要再过几年。
7. 我总在用‘几年’来衡量,但或许我们该用‘算力’来衡量
人类的产出是由时间决定的,但 AI 的产出是由算力决定的,而 AI 产出会在研究机构变得越来越重要。这也是为什么各实验室都在抢着建超大集群——Meta 的 2GW 集群,X.ai 新购置的十万块 H100 等等。
所有实验室都在追随 OpenAI 的脚步搞“测试时算力”模型,有些实验室也能通过堆算力来弥补算法暂时的不足,就像追赶 GPT-4 那样。训练这些模型既需要一些公共知识,也需要各家的独家秘方。现在还不清楚 OpenAI 的 o 级模型里有多少独家算法,但看他们的进步速度,似乎更可能是算法突破(更容易被复制),而不是独家数据(更难被复制)。
在这个“测试时算力”的时代里,“更多的算力”和“更好的模型”哪样更重要其实并不明朗。一方面,你可以用更大的测试时算力来弥补模型欠佳;另一方面,一个略好一点的模型可能在指数级上节省算力。
如果 X.ai 单纯因为善于搭建大规模集群而追上了 OpenAI,那画面也挺有意思的。
不管怎样,所有实验室之间不会出现能保持一年以上的“模型护城河”,因为他们的研究人员就像棒球卡一样被“互换”,更何况研究人员在业余时间还可能聚在一起交流、party、互通有无。再者,许多研究者都有理想主义情怀,如果事情失控,他们多半还是愿意共享信息的。
这真是个很疯狂的局面。AI 竞赛像核竞赛,但美国和苏联的科学家却在周末跑到洛斯阿拉莫斯一起嗨,还在推特上互相嘲讽:“哟,你们 2025 年恐怕造不出最大的核弹吧,哈哈 :)”
直到政府介入或有什么特别糟糕的事发生前,这场 AI 竞赛还会保持现在这种“嬉皮而有爱”的氛围。
8. o 级模型改变了算力规模扩张的一些动力学
o 级模型会激励人们大举扩建算力,因为每提升一个数量级的计算量,就能看到显著收益。对提供算力的厂商来说,这再好不过了。我猜这就是 Sam(Altman)最初想要建造万亿级美元集群时看见的“规律”。
这不一定对 Nvidia 是个好消息。o 级模型让推理(Inference)的重要性高于训练,而针对推理高度优化的芯片更容易做,Nvidia 在这方面的护城河就没那么深。
特别疯狂的猜想:o 级模型或许能把全世界的算力都聚合起来,用于训练最好的模型?就像开源社区通力把大家的 MacBook Pro 拼成一个“推理超级集群”似的。
9. 代码本身也是一种新的指数
如果某个实验室拥有最智能的模型,那么他们的软件工程师会比别家高效 2 倍,这样就能更快达到下一轮生产力翻倍。除非代码开发速度已经到上限,而实验的排期又很长,让实验室重新陷入“算力瓶颈”。(不清楚……这些动力学实在太复杂了,实验室内部肯定有在做详细模型来衡量把资源花在哪 —— 算力或人力。)
- 真正最疯狂的局面:当科学家们也开始感受到 AGI 的力量
我说的是物理学家、化学家、生物学家。 那些带“理论”二字的领域会先被颠覆,比如理论物理。如果数学真被解决了(是的,这写出来都觉得荒诞,但荒诞不等于不可能),那理论物理也应该不远。理论物理也主要活跃在符号领域,恰恰是 LLM 的强势地带。
设想一下,如果我们有数百万个“AI 冯·诺依曼”昼夜不停地在路易斯安那州的某个元宇宙数据中心里工作,他们会迅速读完过去一个世纪里数以千计的物理学论文,并立刻输出更新、更正确的理论序列。
这里之后就很难预测了。理论物理、化学、生物学 —— 如果对强化学习过的 LLM 来说都是“小菜一碟”,那会怎样?目前我们还没看到它们在这些领域的真正创新,但那是因为大部分模型还处在高中/大学水平,尚未到达会发明新物理的阶段。随着它们迈入“博士级”,我们或许就会看到一些创造力了。
11. 一旦 AI 开始输出新的科学理论,瓶颈就会转向“测试与实验”
这就需要物理世界中的劳力和材料。到那个时候,机器人多半已经可以制造机器人,劳力就不是问题;材料也可由机器人去开采。这里的进展会慢一些,因为建造/运输实体物件就是比较耗时。但这是以“年”为单位的过程,而不是“几十年”。
- 我目前所有的假设,都建立在“不出现新的 AI 发展瓶颈,模型也能自由学习”的前提下
这种状况几乎不可能真正发生。AI 进步的最大瓶颈其实是“人类”本身,也就是监管、恐怖主义以及社会崩溃。
政府不可能袖手旁观,看着地球被几家旧金山企业用自动机器人开采。如果政府过于无能,那失业的人也可能走上极端(恐怖主义)。除非大家都被 AI 优化过的媒体“洗脑”,社会功能严重退化(社会崩溃)。
如果真的爆发战争,我认为那不会成为瓶颈,反而会成为加速器。
所以形势会变得严肃。2025 年可能是我们把 AI 当作“旧金山推特段子”的最后一年,然后“穿西装的普通人”就要大举介入了。所以趁现在多享受一下 roon 和 sama 吧( 作者注:"sama"这里指Sam Altman(OpenAI CEO)在推特平台上的昵称,"roon"不知道什么意思,可能也是某位技术大咖的简称,这里引用他俩的意思应该是想表达当 AI 仍处于‘嬉皮和有趣’的状态时,让我们好好享受这些在旧金山技术圈子里常被讨论的人物或话题吧。等到 2025 年后,AI 可能就没那么‘好玩’了,‘严肃的人士’(政府或传统行业)会大规模介入
)。
13. AI 会不会毁灭所有人?
我更害怕的是人类滥用 AI,而不是 AI 本身“叛变”。
我们可是有 5000 年的历史表明,人类会用新科技来互相残杀。二战之后的和平其实只是一个异常状态。只要美国有个闪失,或者某些对手觉得必须先发制人来阻止 AI 的加速,我们就有可能擦枪走火。一旦武器变得更致命、更自主,局势就更加危险。 另一个大风险是 AI 带来的社会混乱。AI 生成的媒体可能导致大众困惑、恐慌、精神荒废。尤其是现在我们又开始使用强化学习,AI 会自行发现最佳优化策略,而不仅仅是模仿人类数据(后者更安全)。但就目前而言,模型底层还是 LLM,它们似乎对“理解人类”更在行。只要在提示里写一句“务必确保别做任何会毁灭我们的事”,你要说它依然会毁灭我们,那就需要更扎实的证据了。
14. 但我还是更兴奋,而非恐惧
我一直想要的科幻世界正在到来,速度比预期更快 —— 这也是恐惧的来源之一。但相比之下,这条通往未来的路径或许已经是不错的了。
我脑海里浮现的未来愿景(希望在十年内实现):
这一切看起来不再像科幻,而更像近在咫尺的科学现实。
- 一些离奇酷炫的物理学发现
- 由机器人先行搭建的火星和月球基地
- 完美的全能辅导/建议服务(其实已基本具备,只差更好的检索、记忆和个性化)
- 副作用为零的生物学增强药物
- 可以乘坐超级优化的无人机四处飞行
- 用核聚变、地热和大量太阳能实现超清洁能源
- 以及那些你意想不到的事情:AI 天文学家在望远镜数据里发现外星信号?AI 化学家随手设计出室温超导体?AI 物理学家统一了若干理论?AI 数学家证明了黎曼猜想?
-
这一切最终会走向何处?
最终,我们会得到“超级智能”,那意味着任何物理定律允许的事物都能实现。 我想要长生不老,并探索其他恒星系统。也想升级我们现有的“肉身”到更棒的形态。但我最兴奋的还是去搞明白“宇宙从何而来”。我十年前就开始写日记,记录我对这个终极答案的渴望,以及我认为 AI 会帮我们找到答案的信念。现在它真的要成真了,光是想想就觉得不可思议。 -
我们已经来到这样一个世界 —— 这些听上去都是可能的,每次新的 AI 突破都会让更多人意识到
这一点,o3 就是最新的里程碑。
除非我们人类自己搞砸,否则未来一定精彩无比。
“我们人类”指的就是我们的舆论、政策、社会稳定、国际合作——这些才是通往辉煌未来的关键阻力。 -
有人觉得是 AI 实验室掌控了我们的未来,但我不认同
他们的工作其实已经被走通了,该出现的模型架构都会在某个实验室里出现。 而真正还不确定的,是我们人类的舆论走向、政策制定、社会稳定、国际合作。这些都处在不确定状态。也就是说,我们才是未来的“真正看护者”。 -
我们可以如何帮忙?
有很多方式:
- 做能让社会更稳定或让人更聪明的产品(比如帮助人们更好地管理社交媒体的 App)
- 帮助更多人了解真相(比如输出更多高质量的社交媒体评论,做一个真正好的搜索引擎等)
- 让我们所在的城市更宜居、更有序(比如参与当地政治),这样当城市准备把大家带往乌托邦时,周围环境别一塌糊涂。
- 几乎所有和我聊过的人都害怕在 AI 世界里失去意义
如果你也有这种担心,我想说:难道不是正好相反吗?你正处在史上最关键的时期,你有机会对其产生影响。“拯救世界”的事业难道不够富有意义吗?你还想回到那个只有个人职业生涯缓慢前行、而世界本身没什么变化的时代吗?
也许我们要从“通过个人成就获得意义”转变到“通过集体成就获得意义”。我们很多现有的工作将在不久后被自动化。我们必须适应。如果你的意义感来自某项特定技能,那 5 年后可能它就不再需要了,你只能干瞪眼。但如果你能从“以任何方式帮助世界”这件事中获得意义,那就永远不会过时。
- 给那些因为 o3 而收到各种建议的应届毕业生
我的建议是:学会成为 1)高主动性的问题解决者 和 2)优秀的团队合作者。你在学习过程中掌握的具体技能在瞬息万变的世界里可能很快过时,但积极地解决问题、和他人高效合作则会一直受用。
你可能也要接受一个不稳定的生活方式,因为世界会越来越诡异。也许你不会在郊区养两个孩子一条狗,而是带两个“半机械人类”孩子和一只 AI 狗,坐着星际方舟到处闯荡。
我们正处在 AGI 即将到来的前夜,就像是圣诞前夕。我在这里请求你帮助确保这次 AGI 的转变顺利进行,这样到了公元 3024 年的平安夜,我们还能在距地球四光年外、绕“Altman Centauri”运转的某个星球上彼此打招呼。