一个有趣的问题:当你听到"昨天下雨了"这句话时,你的大脑在0.2秒内做了什么?而当GPT处理同样这句话时,它的"思考"过程是否和你相似?
Nature上的一项新研究给出了让人意外的答案:相似得可怕。
研究人员让志愿者戴上脑电帽,听30分钟的故事。同时,他们把同样的故事喂给GPT-2 XL和Llama-2,记录下AI每一层的"思考"过程。结果发现了一个精妙的时间对应关系。
传统语言学认为大脑处理语言靠的是符号和规则,就像查字典一样。但LLM用的是完全不同的方法:把词语变成数字向量,然后通过一层层复杂的数学变换来"理解"语言。这听起来很抽象,但大脑似乎也在做类似的事。
最有趣的发现出现在布洛卡区,这是大脑的语言中枢。当一个词刚出现时,LLM的浅层网络活跃,对应大脑的早期反应;随着时间推移,LLM的深层网络开始工作,大脑的后续处理也同步进行。
实验设计很巧妙。研究人员为每个脑电极、每个AI层级、每个时间点都训练了独立的预测模型。这些模型试图用AI的"思考"状态来预测大脑的电信号。通过十折交叉验证,他们发现在额下回区域,AI层级的深度和大脑反应的时间延迟有显著相关性。
更神奇的是,这种对应关系只在AI"猜对"下一个词时才明显。当GPT-2能准确预测接下来会出现什么词时,它的内部表示和人脑活动几乎同步。猜错了?对应关系就消失了。
研究还揭示了大脑处理语言的"流水线"过程。从颞上回到颞极,再到前颞上回和额下回,各个脑区像接力赛一样处理语言信息,处理时间窗口越来越长,复杂度越来越高。这和LLM的层级结构几乎一模一样。
曾有人说过,Transformer架构本身就是在模拟神经脉冲的传递模式。这项研究算是给了这个观点实锤。研究团队还公开了数据集,给后续研究提供了基准。
这个发现颠覆了我们的一些认知。也许LLM不只是在处理文字,而是真的在某种程度上复现了人脑的语言理解过程。这不仅帮我们理解大脑怎么工作,也为开发更像人类的AI提供了新思路。
看来AI和人脑的相似性,比我们想象的要深得多。
原文:https://www.nature.com/articles/s41467-025-65518-0
编辑来自wink pings。
关注公众号回复“进群”入群讨论。
