文章

LLM 的反向图灵测试,与量子力学量子态塌缩

大语言模型可能像一面镜子,实际反映的是使用者的智力水平,这构成了一种反向图灵测试。

传统图灵测试:通过自然语言对话判断机器是否具备人类智能(人类无法区分机器与真人)。

反向图灵测试:通过观察人类的反应来评估人类的智能水平。大语言模型在交互中会”映射”人类的思维特征,对话者的思维深度、提示质量越高,模型表现出的智能水平越显著。

提出好问题的能力尤其重要,同一个现象,不同人,提出的问题就不一样,模型所展现的智能也不一样,由此可以算作反映人的智能,也就是反向图灵测试。

自回归 LM 与扩散 LM?

  • 扩散语言模型(Diffusion LM):在连续嵌入空间加噪去噪

  • 输入是词嵌入的连续组合

  • 无需离散 token 预测,而是回归连续向量

  • 但生成时需额外解码器映射回词表(又回到离散)

即使不用 next-token prediction,只要最终要输出”人类可读文本”,就很难完全避开离散符号系统——因为语言本身就是离散的!

扩散目标是回归,不是分类。而目前主流 LLM 是一个序列化的、自回归的分类模型。

  • LLM 输出 logits 是连续向量,但目标是离散 token,所以是分类。

LLM 输出的 logits 是一个与词表对齐的连续向量,其每个元素表示对应 token 的未归一化得分;预测时取最大得分的 token 即可,softmax 仅用于概率解释或采样,不改变预测结果。

借鉴量子力学理论来思考,在主流的哥本哈根诠释中,”观察/测量”会触发量子态从叠加变为一个确定结果,这被叫做”坍缩”;具体量子坍缩指的是:一个原本处于多种可能状态的量子系统,在被测量时”突然”只呈现出其中一种确定结果的过程,也就是从叠加态变成某个本征态。

prompt 的输入,是 llm 推理的起步,只要是 prompt-响应式的,都可以列入广义预测,或者广义续写范畴。prompt 可以看作对 LLM 模型的一次测量或者观察,图灵测试 LLM 的智能水平,它引起语言输出可测量值,也就是连续向量坍缩到语言离散本征态,和量子力学能量离散本征态是一样的。语言本征态是人类约定的符号单位,没有自然的”物理测量”过程,只是我们为了建模方便而设定的离散基,也就是语言本身就是量子化的。量子力学能量量子化就是在我们测量一个系统的时候,它的能量是量子化的,就是坍缩后的本征态能量是量子化的。LLM 模型本身被 prompt 测量来之后,坍缩到离散语言的输出,也是符合人造层面的量子系统,就像我们可以造斜坡,要可以造台阶。

在量子力学中,坍缩是物理过程(有实验可验证);在语言模型中,坍缩是算法选择(采样策略或贪心选择)。

prompt 测试本身不仅仅获得了评估 LLM 模型智能的作用,也反映了测试者自己的智能。

类比量子力学中,一个孤立系统的状态可以用波函数描述,它通常可以写成一组本征态的线性叠加。

在测量之前,系统处于叠加态,并不是其中任何一个本征态,而是所有可能性的组合。

测量结果是一个具体的本征值 $a_k$,其出现的概率为 $\lvert c_k \rvert^2$,由测量前的叠加系数决定。

若 $\lvert c_k \rvert^2$ 较大,则该本征态在叠加中占主导地位,更可能被观测到;

若 $\lvert c_k \rvert^2$ 较小,则该本征态占比低,几乎不会被测到。

这与 LLM 中对 logits 使用 softmax 进行概率解释或采样机制高度相似。

一次测量得到的本征态,它的概率分布完整地编码了测量前的叠加特性。我们根据量子力学 POVM(正算子值测度)告诉我们”测量结果的统计分布同时编码了系统状态和测量装置本身”,这正好对应”反向图灵测试”——LLM 的输出统计分布同时编码了模型能力和使用者的 prompt(测量)特征。

本文由作者按照 CC BY 4.0 进行授权