既然AI不知道,为什么还非要一本正经的胡说八道?

AIGC

如果你经常使用各种AI模型,例如 ChatGPT、Gemini、Claude 或 DeepSeek,你一定遇到过这样的场景:

AI一本正经地回答你的问题,但你仔细一查,发现它说的全是胡话。

它不是在骗你,而是真的以为自己说得对。这种现象有个专业名字,叫做 “幻觉”(Hallucination)。

什么是AI的“幻觉”

“幻觉”,就是AI在缺乏正确信息时,仍然生成一个“看起来合理但实际错误”的答案。

举个例子问它:

“1949 到 1989 年间,西德的首都是哪座城市?”

正确答案当然是“波恩”, 但AI有时候会自信地告诉你“柏林”,

甚至给出“柏林是冷战时期德国的政治中心”这种听起来头头是道的解释。

这种的出错算是正常现象了,因为这是AI在信息不足时的自动补全机制在起作用。

它不喜欢交白卷,如果有不会的,没有知识储备的,也要硬编一个看合理的答案上去。

AI是如何“思考”的?

要理解幻觉的成因,我们得先了解下AI是怎么“想”的。

AI并不像人那样“记忆事实”,它只是通过在海量样本中匹配,然后预测下一个最可能的词。

整个过程可以简化为两步:

1、理解问题:自注意力机制(Self-Attention)

当你输入一句话时,AI会把每个词分解成Token, 再将这些词元转换成一串长长的数字(向量),用数学的方式表达语义。

然后每个词元都被投影成三个向量:Query(查询),Key(键),Value(值)。

Query 代表当前词在寻找什么语义关联,Key 和 Value 则来自其他词。

通过计算 Query 和 Key 之间的相似度,模型会分配不同的注意力权重,对 Value 做加权,得到当前词的“上下文增强”表示。

简单说:每个词根据自己需要,从其它词那儿“借信息”。

但如果注意力机制没分清重点(例如忽略了问题中的“1949–1989”时间段),就可能把注意力放错位置,从而引入错误的信息。

picture.image

2、寻找答案:前馈神经网络(Feed-Forward Network, FFN)

理解完上下文后,模型还要决定输出什么词,这个过程就交给 FFN。

FFN 是每个Transformer层内的一段两层神经网络,用于处理每个token。

它的作用有点像大型“知识记忆单元”,训练时模型会把各种语言模式、事实知识、问题-答案关系压缩进 FFN 的键值结构里。

你可以把它想象成一个“条件记忆库”:

如果当前上下文表示(已经通过注意力机制融合了信息)与某个“键”高度匹配,那对应的“值”就会被激活,参与输出。

但问题是,这些记忆是靠相关性触发的,而不是事实核对机制。

也就是说,FFN不会判断真假,它只会判断:“这个输入和我记得的哪个模式最像?”

一旦匹配上,就输出那个模式代表的内容,哪怕这个内容是错的。

尤其是当模型没见过某个问题时,它就会启动所谓的“最近邻猜测”机制,在语义空间里找一个相似问题的答案来顶上。

这个过程,就很容易引发幻觉。

AI幻觉 ≈ 人类的“脑补反应”

这里看一个有趣的例子。

在柏林,一位年轻的女服务员被问到:

“1989 年之前,西德的首都是哪?”

她回答:“柏林吧...”

为什么她没有说“我不知道”?

这里在神经学就有一个合理的解释:

当一个人面临社交压力时,大脑的前扣带回皮层(dACC) 会被激活,促使人做出“最佳猜测”,以避免显得无知或愚蠢。

我觉得这一点一定可以引起很多人的共鸣。

picture.image

同时,她的思维还受到“可得性启发式”的影响。

也就是说,她最近生活在柏林,这个信息在记忆中非常活跃,于是大脑便自动“脑补”了一个听起来最合理的答案。

这样类比,就可以发现和AI非常像:

模型不知道时也不会沉默,而是选择概率上最合理的输出。

它不是在“骗人”,而是在用统计学方式“安慰”你。

如何减少AI的幻觉?

这就要看技术手段了,这里就有集中对抗幻觉的方式:

1、RAG:检索增强生成

RAG(Retrieval-Augmented Generation)是目前减少幻觉最主流的方法。

模型在回答问题之前,先访问外部知识库(如百度百科、文章搜索、企业内网)来获取信息,再生成回答。

比如很多模型都会有 深度搜索这个选项,也就是先通过查询网上现有的真实数据来回答。

picture.image

2、上下文注入(Prompt Injection)

这里就需要注意你在使用AI时给到的提示词。

你可以在提示词前加上一段背景信息,帮助模型 “进入正确状态”。

比如提前告诉它:“请根据1949至1989年的历史资料作答。”

这就相当于是进一步强调:“我不是问现在,我是问冷战时期。”

3、模型微调(Fine-tuning)

微调,也就是给AI做某一专业领域更深层次的训练。

企业或开发者可以将自有的文档、知识库喂给模型进行再训练,使它更懂某个垂直领域。

picture.image

不过,微调成本是比较高的,需要GPU资源和技术能力,所以并不适合所有的用户。

4、工具调用(Tool Use)

当小模型(模型本身能力有限)发现自己不确定答案时,让它会调用外部工具,比如地图、搜索接口、数据库API来协助。

目前用的最广泛的就是MCP服务了,可以直接使用现有的各种工具服务,也可以自己部署。

这类似于“我不太确定,我去查一下资料”,从而减少幻觉风险。

结语:幻觉不是Bug,而是AI的“人性”

AI 的幻觉,不能叫它系统漏洞,而是它的非确定性思维机制在起作用。

它被训练成 “必须给出答案”,即使在缺乏确定信息时,也会根据概率 “自信作答”。

这就像人类在不想承认“我不知道”时,会用逻辑和直觉拼出一个听起来合理的结论。

所以......

AI的幻觉不是问题,而是一种镜像,它映照出我们人类自己的思维方式。

也许幻觉永远无法被彻底消除, 但只要我们理解它、管理它、设计好它的边界, AI就不会成为“撒谎的匹诺曹”, 而会成为一个更聪明、更可靠的“认知助手”。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
火山引擎大规模机器学习平台架构设计与应用实践
围绕数据加速、模型分布式训练框架建设、大规模异构集群调度、模型开发过程标准化等AI工程化实践,全面分享如何以开发者的极致体验为核心,进行机器学习平台的设计与实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论