第一章·你必须先看穿它:AI写小说的底层真相·AI写作底层原理

第一章·你必须先看穿它:AI写小说的底层真相·AI写作底层原理

很多人一上来就问我:“AI能不能直接写一本小说?”
我通常反问一句:“你知道它是怎么生成一句话的吗?”

如果连生成原理都不知道,就谈不上控制,更谈不上工程级使用。

这一章,我们不谈技巧,不谈提示词,我们只做一件事——拆穿幻觉。


一、什么是大语言模型(LLM)

所谓大语言模型(Large Language Model,LLM),本质上是一个在海量文本数据上训练出来的概率计算系统

它不是作家。
它不是思想者。
它没有世界观。

它只做一件事:

在给定文本的情况下,计算“下一个最可能出现的词”。

就这么简单。

它通过数十亿甚至上万亿参数,学习语言之间的统计关系。
什么词常跟什么词一起出现,什么结构常接什么结构,什么情绪后面通常接什么表达。

当你输入一段话时,它不是在“理解你”,它是在计算概率分布。

这件事听起来很冷酷,但你必须接受这个现实。

因为一旦你明白这一点,你就知道——
AI不是创作主体,它只是语言预测机器。


二、概率预测机制(Next Token Prediction)

核心机制只有四个字:

Next Token Prediction(下一个词预测)

举个简单例子:

“夜色如水,他握紧了手中的——”

AI会计算:
在大量训练数据中,“夜色如水”后面常见什么表达?
“握紧了手中的”后面最常见接什么?

可能是:

  • 手机
  • 钥匙

它会根据概率分布,选择一个最合理、最符合上下文统计规律的词。

然后继续预测下一个词。

整篇小说,就是这样一步一步预测出来的。

它不是在构思剧情。
它是在不断做局部概率最优选择。

这也是为什么——

AI生成的文本通常“局部合理,整体平庸”。

因为它擅长局部预测,不擅长全局规划。


三、为什么AI会“看似懂逻辑”

很多人会说:“它好像真的懂剧情啊?”

不,它不懂。

它只是学习到了大量文本中的逻辑结构模式。

比如:

  • 冲突 → 升级 → 爆发 → 反转
  • 误会 → 分离 → 重逢
  • 升级打怪 → 获得奖励

这些结构在训练数据里反复出现。

模型并没有理解“人性”。
它只是学会了“故事通常长这样”。

当概率模型足够大时,这种结构拟合能力就会变得极强。

于是产生一种错觉:

它好像真的理解因果关系。

其实不是理解,是统计模拟

就像一个演员模仿一个人,他可以模仿得很像,但并不等于他就是那个人。

这也是我一直强调的:

不要把语言流畅误认为思想存在。


四、幻觉现象的来源

所谓“幻觉”(Hallucination),是指AI编造事实、制造不存在的内容,却表达得非常自信。

它为什么会这样?

因为它的目标不是“真实”,
它的目标是——

生成“看起来合理”的文本。

当训练数据中某种表达结构概率很高,但具体信息缺失时,它会自动补全一个最像真的版本。

比如:

  • 虚构不存在的历史资料
  • 编造不存在的书籍引用
  • 乱造设定细节

这不是恶意,而是机制决定的。

它不知道“真假”,
它只知道“概率”。

这也是为什么——

真正工程级使用AI,一定要有人类校验层。

在优雅草写作中枢的设计理念里,我们强调一个闭环:

生成 → 检测 → 结构校验 → 人工重构

如果没有“人工重构”,AI生成就永远存在风险。


五、上下文窗口的限制

还有一个很多人忽略的问题:

上下文窗口(Context Window)。

模型一次能看到的文本是有限的。

无论窗口多大,它始终是有限的。

当小说写到几十万字时:

  • 前期伏笔可能被遗忘
  • 角色性格可能漂移
  • 设定可能自相矛盾

因为模型不是长期记忆系统。

它只是在当前窗口内做概率预测。

这就是为什么很多人用AI写长篇时,会出现:

  • 人设崩塌
  • 设定冲突
  • 时间线混乱

不是AI故意乱写。

是你把“全局结构控制”交给了一个只会做局部预测的系统。

这本身就是认知错误。


本章结语

如果你读到这里还觉得:

“没关系,我照样可以用AI写。”

那你已经开始理解工程思维了。

真正的工程级使用,不是迷信模型能力,
而是理解模型边界。

总结一句话:

  • AI是概率引擎
  • 不是叙事主体
  • 它擅长局部语言生成
  • 不擅长全局结构规划
  • 它模拟逻辑
  • 但不承担逻辑

从这一章开始,你必须把一个认知刻进脑子里:

文学的责任在人,语言的生成在机。

0
0
0
0
评论
未登录
暂无评论