跳转至

因果

一个语言模型能流利地告诉你"下雨导致路面湿滑,湿滑导致刹车失灵,刹车失灵导致追尾"。这条因果链完整、合理、符合常识。

但它是怎么"知道"这些的?

不是通过观察雨水冲刷路面的物理过程。不是通过测量轮胎与路面之间的摩擦系数。它是在数十亿文本中见过"下雨"和"路滑"经常一起出现,见过"路滑"和"事故"经常一起出现——统计共现。它学到了什么经常跟什么一起出现,而不是什么导致什么。

大多数时候,这足够了。相关性和因果性在日常场景中高度重叠。但"大多数时候"和"总是"之间的缝隙,是整座 agent 系统可以坠入的深渊。

这一章追问一个结构性问题:当你的推理引擎从相关性中学习,而你的应用需要因果性的可靠性时,系统的什么地方需要补上这个差距?答案不是让模型"变得更聪明"——而是让整个系统对自己保持诚实。我们管这叫因果纪律。

因果——LLM 生活在相关性的海洋里,harness 划出因果的航道


# 篇章 一句话
01 休谟的叉子 人类自己也从未观察到因果——休谟发现我们依赖的是恒常连结和习惯,不是理性确证
02 相关性的海洋 Next-token prediction 学到的是 token 层面的恒常连结——恒常连结的力量惊人,但有结构性盲区
03 因果的阶梯 Pearl 的因果阶梯量化了困境:三层互相分离,再多相关性数据也回答不了干预性问题
04 因果纪律 从因果性的本质推导出四条结构性需求:证据分级、时序约束、假说验证、推理溯源
05 诚实的代价 因果纪律增加复杂度、降低速度、转移设计负担——什么时候值得付这个代价?
06 因果之道 因果纪律如何与反馈环路、熵增、分形结构形成共振?尾声:载体问题引向符号与联结

从 01 到 06 顺序读。每篇假设你读过前面的。

前置依赖:ch-01 正交(力的方向)、ch-02 控制论(反馈环路)、ch-03 熵(信息衰减)。