登陆nature!大脑处理语言的时间结构与LLM惊人相似

大模型机器学习算法

一个有趣的问题:当你听到"昨天下雨了"这句话时,你的大脑在0.2秒内做了什么?而当GPT处理同样这句话时,它的"思考"过程是否和你相似?

Nature上的一项新研究给出了让人意外的答案:相似得可怕。

picture.image

研究人员让志愿者戴上脑电帽,听30分钟的故事。同时,他们把同样的故事喂给GPT-2 XL和Llama-2,记录下AI每一层的"思考"过程。结果发现了一个精妙的时间对应关系。

传统语言学认为大脑处理语言靠的是符号和规则,就像查字典一样。但LLM用的是完全不同的方法:把词语变成数字向量,然后通过一层层复杂的数学变换来"理解"语言。这听起来很抽象,但大脑似乎也在做类似的事。

最有趣的发现出现在布洛卡区,这是大脑的语言中枢。当一个词刚出现时,LLM的浅层网络活跃,对应大脑的早期反应;随着时间推移,LLM的深层网络开始工作,大脑的后续处理也同步进行。

picture.image

实验设计很巧妙。研究人员为每个脑电极、每个AI层级、每个时间点都训练了独立的预测模型。这些模型试图用AI的"思考"状态来预测大脑的电信号。通过十折交叉验证,他们发现在额下回区域,AI层级的深度和大脑反应的时间延迟有显著相关性。

更神奇的是,这种对应关系只在AI"猜对"下一个词时才明显。当GPT-2能准确预测接下来会出现什么词时,它的内部表示和人脑活动几乎同步。猜错了?对应关系就消失了。

picture.image

研究还揭示了大脑处理语言的"流水线"过程。从颞上回到颞极,再到前颞上回和额下回,各个脑区像接力赛一样处理语言信息,处理时间窗口越来越长,复杂度越来越高。这和LLM的层级结构几乎一模一样。

曾有人说过,Transformer架构本身就是在模拟神经脉冲的传递模式。这项研究算是给了这个观点实锤。研究团队还公开了数据集,给后续研究提供了基准。

这个发现颠覆了我们的一些认知。也许LLM不只是在处理文字,而是真的在某种程度上复现了人脑的语言理解过程。这不仅帮我们理解大脑怎么工作,也为开发更像人类的AI提供了新思路。

看来AI和人脑的相似性,比我们想象的要深得多。

原文:https://www.nature.com/articles/s41467-025-65518-0

编辑来自wink pings。

关注公众号回复“进群”入群讨论。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
TRAE 的思考:AI 时代程序员的认知进化
在 AI 浪潮下,传统的古法编程模式正在被颠覆和变革,对开发者的认知和协作模式提出了新的挑战。本次分享将深入探讨 AI Coding 的演进趋势,从 AI 辅助编程到 AI 主导的全新协作模式,以及它如何重塑人与 AI 之间的关系,同时也将分享下 TRAE 的核心理念、技术实现,演进实践中的踩坑心得、以及我们对未来的展望。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论