<feed xmlns="http://www.w3.org/2005/Atom"> <id>https://yuchong-ucas.github.io/</id><title>Yuchong's blog</title><subtitle>A minimal, responsive and feature-rich Jekyll theme for technical writing.</subtitle> <updated>2026-03-17T23:15:15+08:00</updated> <author> <name>yuchong</name> <uri>https://yuchong-ucas.github.io/</uri> </author><link rel="self" type="application/atom+xml" href="https://yuchong-ucas.github.io/feed.xml"/><link rel="alternate" type="text/html" hreflang="zh-CN" href="https://yuchong-ucas.github.io/"/> <generator uri="https://jekyllrb.com/" version="4.4.1">Jekyll</generator> <rights> © 2026 yuchong </rights> <icon>/assets/img/favicons/favicon.ico</icon> <logo>/assets/img/favicons/favicon-96x96.png</logo> <entry><title>计算复杂性, 启发式算法与解析式算法</title><link href="https://yuchong-ucas.github.io/posts/heuristics-and-analytical-algorithms/" rel="alternate" type="text/html" title="计算复杂性, 启发式算法与解析式算法" /><published>2026-03-12T01:34:00+08:00</published> <updated>2026-03-12T01:34:00+08:00</updated> <id>https://yuchong-ucas.github.io/posts/heuristics-and-analytical-algorithms/</id> <content type="text/html" src="https://yuchong-ucas.github.io/posts/heuristics-and-analytical-algorithms/" /> <author> <name>yuchong</name> </author> <category term="AI" /> <summary>P与NP问题 计算理论的核心问题是：哪些问题可以被高效解决？哪些问题本质上是难解的？ 算法规模如何随问题规模扩展，也是计算机科学的基本原理，算法规模通过复杂度类（如P类、NP类）进行阐释： P类问题：可以在多项式时间（如 $O(n)$ 、$O(n \log n)$ 、$O(n^2)$ ）内解决的问题（如排序、查找）； NP类问题：可以在非确定性多项式时间（如 $O(2^n)$ ）内解决的问题（如旅行商问题、布尔 satisfiability问题）。 算法的可扩展性 多项式时间算法的执行时间随问题规模增长的速率可控，可扩展到大规模问题； 非多项式时间算法的执行时间随问题规模增长的速率爆炸，无法扩展到大规模问题。 P≠NP 复杂度类的研究揭示了问题的本质难度：例如，若P≠NP（这是计算机科学尚未解决的重大问题），则意味着NP类问题（如旅行商问题）本质上无法用多项式时间算法...</summary> </entry> <entry><title>LLM 的反向图灵测试，与量子力学量子态塌缩</title><link href="https://yuchong-ucas.github.io/posts/reverse-turing-test-for-llm2/" rel="alternate" type="text/html" title="LLM 的反向图灵测试，与量子力学量子态塌缩" /><published>2026-03-11T00:34:00+08:00</published> <updated>2026-03-11T00:34:00+08:00</updated> <id>https://yuchong-ucas.github.io/posts/reverse-turing-test-for-llm2/</id> <content type="text/html" src="https://yuchong-ucas.github.io/posts/reverse-turing-test-for-llm2/" /> <author> <name>yuchong</name> </author> <category term="AI" /> <summary>大语言模型可能像一面镜子，实际反映的是使用者的智力水平，这构成了一种反向图灵测试。 传统图灵测试：通过自然语言对话判断机器是否具备人类智能（人类无法区分机器与真人）。 反向图灵测试：通过观察人类的反应来评估人类的智能水平。大语言模型在交互中会”映射”人类的思维特征，对话者的思维深度、提示质量越高，模型表现出的智能水平越显著。 提出好问题的能力尤其重要，同一个现象，不同人，提出的问题就不一样，模型所展现的智能也不一样，由此可以算作反映人的智能，也就是反向图灵测试。 自回归 LM 与扩散 LM？ 扩散语言模型（Diffusion LM）：在连续嵌入空间加噪去噪 输入是词嵌入的连续组合 无需离散 token 预测，而是回归连续向量 但生成时需额外解码器映射回词表（又回到离散） 即使不用 next...</summary> </entry> <entry><title>从“听见红色”，巴甫洛夫条件反射实验，RL时序差分算法，到LLM“看”懂图像</title><link href="https://yuchong-ucas.github.io/posts/RL-TD-error-and-LLM-see-image/" rel="alternate" type="text/html" title="从“听见红色”，巴甫洛夫条件反射实验，RL时序差分算法，到LLM“看”懂图像" /><published>2026-03-03T00:34:00+08:00</published> <updated>2026-03-03T00:34:00+08:00</updated> <id>https://yuchong-ucas.github.io/posts/RL-TD-error-and-LLM-see-image/</id> <content type="text/html" src="https://yuchong-ucas.github.io/posts/RL-TD-error-and-LLM-see-image/" /> <author> <name>yuchong</name> </author> <category term="AI" /> <summary>1.统一世界模型 在人类感知经验中，我们看到红色、听到红色，在大脑中会形成统一概念，指向同一个“红色”概念，这里红色可以换为其他任何感知对象，道理是一样的。人类的大脑就是一个统一强大的世界模型：你闭眼也能想象“打碎玻璃的声音”、“踩在雪地上的触感”。 2.神经认知现象-联觉（Synesthesia） 联觉是一种神经认知现象：当一种感官或认知通路被激活时，自动且不可控地引发另一种感官体验。例如：高音 ↔ 明亮/浅色低音 ↔ 昏暗/深色. 表达 感官转换 效果 甜美的歌声 味觉（甜）→ 听觉（歌） 形容声音悦耳、令人愉悦 刺耳的噪音 触觉（刺）→ 听觉（噪音） 强调声音尖锐、令人不适 ...</summary> </entry> <entry><title>训练阶段空间上的ResNet与推理阶段时间上的KV Cache</title><link href="https://yuchong-ucas.github.io/posts/ResNet-and-KV-Cache/" rel="alternate" type="text/html" title="训练阶段空间上的ResNet与推理阶段时间上的KV Cache" /><published>2026-02-20T00:34:00+08:00</published> <updated>2026-02-20T00:34:00+08:00</updated> <id>https://yuchong-ucas.github.io/posts/ResNet-and-KV-Cache/</id> <content type="text/html" src="https://yuchong-ucas.github.io/posts/ResNet-and-KV-Cache/" /> <author> <name>yuchong</name> </author> <category term="AI" /> <summary>训练阶段空间上的ResNet-可增量认知学习 ResNet的本质： 残差网络背后的策略是让网络去拟合残差映射，而不是让层去学习底层的映射。 最先提出该网络是何恺明的革命性的文章： 为什么要如此呢？我们这里不推导数学公式。在直观上来看，CNN里的非线性激活层是问题的关键。 为什么我们要使用非线性激活而不是线性激活呢？ 从字面就可以知道，我们面对的大多数特征线性的很少，线性激活无法刻画非线性系统特征，而且这个世界本身就是非线性的，线性只是很少特例，神经网络要能反映现实，必须要引进非线性。 假设一个两层网络： 第一层：$a_1 = w_1 x + b_1$ 第二层：$a_2 = w_2 a_1 + b_2 = (w_2 w_1) x + (w_2 b_1 + b_2)$ 可简化为 $a_2 = w’ x + b’$ ，与单层线性模型无异。 使用了非线性激...</summary> </entry> <entry><title>图像优化线性AR算法到Self-Attention机制</title><link href="https://yuchong-ucas.github.io/posts/AR-and-Self-Attention/" rel="alternate" type="text/html" title="图像优化线性AR算法到Self-Attention机制" /><published>2026-02-15T00:34:00+08:00</published> <updated>2026-02-15T00:34:00+08:00</updated> <id>https://yuchong-ucas.github.io/posts/AR-and-Self-Attention/</id> <content type="text/html" src="https://yuchong-ucas.github.io/posts/AR-and-Self-Attention/" /> <author> <name>yuchong</name> </author> <category term="AI" /> <summary>线性AR算法 在几年前，我做过一个深度图算法优化的项目。问题背景 ：我们有采集+开源（～10W）depth+RGB pair对数据集，但是由于depth获取的物理原理（结构光，TOF等）原因，depth一般质量很差，孔洞，噪声，边缘模糊等。我们如何优化depth呢？其可以写为一个最优化问题： [\min \quad E(x) = \sum_{i=1}^{N} \sum_{j \in \mathcal{N}(i)} w_{ij}(x_i - x_j)^2 + \alpha \sum_{i \in \Omega} (x_i - \hat{x}_i)^2] 其中： $\alpha$ 是惩罚因子； $\mathcal{N}(i)$ 是以 $x_i$ 中心点的临域为中心点的 $n$ 邻域； $\hat{x}_i$ 表示坐标点 $i$ 处depth 优化前真实值； ...</summary> </entry> </feed>
