从数据中生成噪声很容易;从噪声中生成数据则是生成式建模的核心。
——Song 等人 [30]
近年来,我们都见证了人工智能(AI)领域的巨大变革。像 Stable Diffusion 3 这样的图像生成模型能够生成跨多种风格的照片级真实感和艺术感图像,Meta 的 Movie Gen Video 等视频模型可以生成高度逼真的电影片段,而 ChatGPT 等大型语言模型能够对文本提示做出近乎人类水平的回应。这场革命的核心在于 AI 系统的一项新能力:生成对象的能力。与前几代主要用于预测的 AI 系统不同,这些新的 AI 系统具有创造性——它们能基于用户指定的输入“构想”或生成全新的对象。这类生成式 AI 系统正是近期 AI 革命的核心驱动力。
本课程的目标是教授两种最广泛使用的生成式 AI 算法:去噪扩散模型(denoising diffusion models)[32] 和流匹配(flow matching)[14, 16, 1, 15]。这些模型是最先进的图像、音频和视频生成模型(如 Stable Diffusion 3 和 Movie Gen Video)的基础,并且最近在蛋白质结构等科学应用中也成为了最先进的技术(例如,AlphaFold3 就是一种扩散模型)。毫无疑问,理解这些模型是一项极具价值的技能。
所有这些生成式模型都通过迭代方式将噪声转化为数据来生成对象。这种从噪声到数据的演变过程是通过模拟常微分方程(ODEs)或随机微分方程(SDEs)实现的。流匹配和去噪扩散模型是一系列技术的统称,它们允许我们利用深度神经网络大规模构建、训练和模拟这类微分方程。尽管这些模型的实现相对简单,但 SDEs 的技术性本质使得它们难以理解。在本课程中,我们的目标是提供一个自成体系的微分方程相关数学工具介绍,帮助你系统地理解这些模型。除了广泛的适用性外,我们相信流模型和扩散模型背后的理论本身也极具美感。因此,最重要的是,我们希望本课程能为你带来丰富的学习乐趣。
尽管本讲义内容自成体系,我们仍建议你使用以下两种补充资源:
课程录像:以授课形式引导你学习每个章节。 实验课:指导你从零开始实现自己的扩散模型。我们强烈建议你“亲自动手”编写代码实践。
你可以在课程网站上找到这些资源:https://diffusion.csail.mit.edu/。 我们对本讲义的内容做简要概述:
第 1 节“生成式建模即采样”:我们将形式化定义“生成”图像、视频、蛋白质等对象的含义。例如,我们会将“如何生成一张狗的图像?”这类问题转化为更精确的“从概率分布中采样”问题。 第 2 节“流模型与扩散模型”:接下来,我们将解释生成的核心机制。正如课程名称所示,该机制基于常微分方程和随机微分方程的模拟。我们会介绍微分方程的基础知识,并说明如何利用神经网络构建这些方程。 第 3 节“构建训练目标”:要训练生成式模型,我们首先需要明确模型需要逼近的目标——即“真实分布”。我们将引入著名的福克-普朗克方程(Fokker-Planck equation),它能帮助我们形式化定义真实分布的概念。 第 4 节“模型训练”:本节将制定训练目标,使我们能够逼近上一节定义的训练目标(即真实分布)。至此,我们将能够提供流匹配和去噪扩散模型的最小实现方案。 第 5 节“条件图像生成”:我们将学习如何构建条件图像生成器。为此,我们将阐述如何基于提示词(例如“一张猫的图像”)对采样过程进行条件约束,随后讨论常见的神经网络架构,并概述当前最先进的图像和视频生成模型。 由于本主题具有较强的技术性,我们建议学习者具备一定的数学基础,尤其是概率论相关知识。因此,我们在附录 A 中包含了概率论的简要回顾部分。如果其中某些概念对你来说不熟悉,也无需担心。
让我们首先思考可能遇到的各种数据类型(或模态),以及如何对它们进行数值表示:
图像:考虑具有 H × W H \times W H × W 像素的图像(其中 H H H 表示图像的高度,W W W 表示宽度),每个像素包含三个颜色通道(RGB)。每个像素和每个颜色通道都有一个亮度值,因此图像可以表示为元素 z ∈ R H × W × 3 z \in \mathbb{R}^{H \times W \times 3} z ∈ R H × W × 3 。 视频:视频本质上是一系列按时间顺序排列的图像。如果有 T T T 个时间点(或帧),则视频可表示为元素 z ∈ R T × H × W × 3 z \in \mathbb{R}^{T \times H \times W \times 3} z ∈ R T × H × W × 3 。 分子结构:一种简单的表示方式是将分子结构用矩阵 z = ( z 1 , . . . , z N ) ∈ R 3 × N z=(z^1, ..., z^N) \in \mathbb{R}^{3 \times N} z = ( z 1 , ... , z N ) ∈ R 3 × N 表示,其中 N N N 是分子中的原子数,每个 z i ∈ R 3 z^i \in \mathbb{R}^3 z i ∈ R 3 描述对应原子的位置。当然,还有其他更复杂的分子表示方法。 在上述所有例子中,我们想要生成的对象都可以在数学上表示为向量(可能需要先展平)。因此,在本讲义中,我们将遵循以下核心思想:
我们将待生成的对象视为向量 z ∈ R d z \in \mathbb{R}^d z ∈ R d 。
一个显著的例外是文本数据,文本通常通过自回归语言模型(如 ChatGPT)建模为离散对象。尽管已经有针对离散数据的流模型和扩散模型,但本课程将专注于这些模型在连续数据上的应用。
我们来定义“生成”的含义。例如,假设我们想要生成一张狗的图像。显然,存在许多我们会满意的狗的图像,并不存在唯一“最佳”的狗的图像,而是存在一系列贴合度各异的图像。在机器学习中,通常将这种可能的图像集合视为一个概率分布,我们称之为数据分布,记为 p d a t a p_{data} p d a t a 。在狗的图像示例中,该分布会给更像狗的图像分配更高的概率。因此,图像/视频/分子的“贴合度”这一主观概念,被替换为其在数据分布 p d a t a p_{data} p d a t a 下的“概率”。由此,我们可以将生成任务数学化为从(未知的)数据分布 p d a t a p_{data} p d a t a 中采样:
生成对象 z z z 的过程被建模为从数据分布中采样 z ∼ p d a t a z \sim p_{data} z ∼ p d a t a 。
生成式模型是一种能够从 p d a t a p_{data} p d a t a 中生成样本的机器学习模型。在机器学习中,训练模型需要数据支持。在生成式建模中,我们通常假设可以获取有限个从 p d a t a p_{data} p d a t a 中独立采样的示例,这些示例共同作为真实分布的近似。
数据集由有限个样本 z 1 , . . . , z N ∼ p d a t a z_1, ..., z_N \sim p_{data} z 1 , ... , z N ∼ p d a t a 组成。
对于图像数据,我们可以通过收集互联网上公开可用的图像来构建数据集;对于视频数据,类似地可以使用 YouTube 作为数据库;对于蛋白质结构数据,则可以利用蛋白质数据库(PDB)等来源的实验数据——这些数据库积累了数十年的科学测量结果。随着数据集规模的增大,它对底层分布 p d a t a p_{data} p d a t a 的表示会越来越准确。
在许多情况下,我们希望生成的对象受某些数据 y y y 的条件约束。例如,我们可能想要生成一张符合文本提示 y = y= y = “一只狗在积雪覆盖的山上奔跑,背景是山脉”的图像。这可以重新表述为从条件分布中采样:
条件生成涉及从 z ∼ p d a t a ( ⋅ ∣ y ) z \sim p_{data}(\cdot | y) z ∼ p d a t a ( ⋅ ∣ y ) 中采样,其中 y y y 是条件变量。
我们将 p d a t a ( ⋅ ∣ y ) p_{data}(\cdot | y) p d a t a ( ⋅ ∣ y ) 称为条件数据分布。条件生成式建模任务通常需要学习对任意(而非固定)的 y y y 进行条件约束。以之前的例子为例,我们可能希望将条件替换为另一个文本提示,如 y = y= y = “一张猫吹生日蜡烛的照片级真实感图像”。因此,我们需要一个能够对任意此类 y y y 进行条件约束的单一模型。事实证明,无条件生成的技术很容易推广到条件生成的场景。因此,在前三节中,我们将几乎完全专注于无条件生成(同时牢记条件生成是我们的最终目标之一)。
到目前为止,我们已经讨论了生成式建模的“目标”:从 p d a t a p_{data} p d a t a 中生成样本。接下来,我们简要讨论实现这一目标的“方法”。为此,我们假设可以获取某个易于采样的初始分布 p i n i t p_{init} p ini t ,例如高斯分布 p i n i t = N ( 0 , I d ) p_{init}=N(0, I_d) p ini t = N ( 0 , I d ) 。生成式建模的目标就是将来自 x ∼ p i n i t x \sim p_{init} x ∼ p ini t 的样本转化为来自 p d a t a p_{data} p d a t a 的样本。需要注意的是,p i n i t p_{init} p ini t 不一定局限于简单的高斯分布——正如我们将看到的,这种灵活性存在许多有趣的应用场景。尽管如此,在大多数应用中,我们仍采用简单的高斯分布,这一点需要重点牢记。
我们将本节的内容总结如下:
在本课程中,我们考虑生成可表示为向量 z ∈ R d z \in \mathbb{R}^d z ∈ R d 的对象,例如图像、视频或分子结构。 生成任务是指在训练过程中利用样本数据集 z 1 , . . . , z N ∼ p d a t a z_1, ..., z_N \sim p_{data} z 1 , ... , z N ∼ p d a t a ,从概率分布 p d a t a p_{data} p d a t a 中生成样本。 条件生成假设我们将分布基于标签 y y y 进行条件约束,目标是在训练过程中利用样本对数据集 ( z 1 , y ) , . . . , ( z N , y ) (z_1, y), ..., (z_N, y) ( z 1 , y ) , ... , ( z N , y ) ,从 p d a t a ( ⋅ ∣ y ) p_{data}(\cdot | y) p d a t a ( ⋅ ∣ y ) 中生成样本。 我们的核心目标是训练一个生成式模型,将来自简单分布 p i n i t p_{init} p ini t (例如高斯分布)的样本转化为来自 p d a t a p_{data} p d a t a 的样本。 2 Flow and Diffusion Models 我们首先从常微分方程(ODE)的定义入手。ODE 的解是一条轨迹,形式为:
X : [ 0 , 1 ] → R d , t ↦ X t X:[0,1] \to \mathbb{R}^d, \quad t \mapsto X_t X : [ 0 , 1 ] → R d , t ↦ X t
该轨迹将时间 t t t 映射到空间 R d \mathbb{R}^d R d 中的某个位置。每个 ODE 由一个向量场 u u u 定义,向量场的形式为:
u : R d × [ 0 , 1 ] → R d , ( x , t ) ↦ u t ( x ) u:\mathbb{R}^d \times [0,1] \to \mathbb{R}^d, \quad (x,t) \mapsto u_t(x) u : R d × [ 0 , 1 ] → R d , ( x , t ) ↦ u t ( x )
即对于每个时间 t t t 和空间位置 x x x ,向量场会给出一个向量 u t ( x ) ∈ R d u_t(x) \in \mathbb{R}^d u t ( x ) ∈ R d ,该向量指定了空间中的瞬时速度方向(见图 1)。ODE 对轨迹施加了一个约束:我们需要找到一条轨迹 X X X ,它能“沿着”向量场 u t u_t u t 的方向演化,并从初始点 x 0 x_0 x 0 出发。这条轨迹可形式化为以下方程的解:
d d t X t = u t ( X t ) (ODE 核心方程) (1a)
\frac{d}{dt} X_t = u_t(X_t) \tag{1a} \quad \text{(ODE 核心方程)}
d t d X t = u t ( X t ) ( ODE 核心方程) ( 1a )
X 0 = x 0 (初始条件) (1b)
X_0 = x_0 \tag{1b} \quad \text{(初始条件)}
X 0 = x 0 (初始条件) ( 1b ) 方程 (1a) 要求轨迹 X t X_t X t 的导数由向量场 u t u_t u t 给出的方向决定;方程 (1b) 要求轨迹在时间 t = 0 t=0 t = 0 时从初始点 x 0 x_0 x 0 出发。由此我们可以提出一个关键问题:若在 t = 0 t=0 t = 0 时从 X 0 = x 0 X_0=x_0 X 0 = x 0 出发,那么在时间 t t t 时轨迹会到达何处(即 X t X_t X t 的值是多少)?这个问题的答案由一个名为“流”的函数给出,该函数是 ODE 的解,形式为:
ψ : R d × [ 0 , 1 ] ↦ R d , ( x 0 , t ) ↦ ψ t ( x 0 ) (2a)
\psi: \mathbb{R}^d \times [0,1] \mapsto \mathbb{R}^d, \quad (x_0, t) \mapsto \psi_t(x_0) \tag{2a}
ψ : R d × [ 0 , 1 ] ↦ R d , ( x 0 , t ) ↦ ψ t ( x 0 ) ( 2a )
d d t ψ t ( x 0 ) = u t ( ψ t ( x 0 ) ) (流的 ODE 方程) (2b)
\frac{d}{dt} \psi_t(x_0) = u_t(\psi_t(x_0)) \tag{2b} \quad \text{(流的 ODE 方程)}
d t d ψ t ( x 0 ) = u t ( ψ t ( x 0 )) (流的 ODE 方程) ( 2b )
ψ 0 ( x 0 ) = x 0 (流的初始条件) (2c)
\psi_0(x_0) = x_0 \tag{2c} \quad \text{(流的初始条件)}
ψ 0 ( x 0 ) = x 0 (流的初始条件) ( 2c ) 对于给定的初始条件 X 0 = x 0 X_0=x_0 X 0 = x 0 ,ODE 的轨迹可通过 X t = ψ t ( X 0 ) X_t = \psi_t(X_0) X t = ψ t ( X 0 ) 恢复。因此,向量场、ODE 和流在直观上是对同一对象的三种描述:向量场定义了 ODE,而 ODE 的解就是流。
与所有方程一样,我们需要关注 ODE 的解是否存在且唯一。数学中的一个基本结论给出了肯定答案,只要对向量场 u t u_t u t 施加较弱的假设:
若向量场 u : R d × [ 0 , 1 ] → R d u: \mathbb{R}^d \times [0,1] \to \mathbb{R}^d u : R d × [ 0 , 1 ] → R d 是连续可微的且导数有界,则方程 (2) 定义的 ODE 存在唯一解,该解由流 ψ t \psi_t ψ t 给出。此时,对于所有时间 t t t ,ψ t \psi_t ψ t 是一个微分同胚,即 ψ t \psi_t ψ t 是连续可微的,且其逆函数 ψ t − 1 \psi_t^{-1} ψ t − 1 也是连续可微的。
需要注意的是,在机器学习中,我们使用神经网络对 u t ( x ) u_t(x) u t ( x ) 进行参数化,而神经网络的导数始终有界,因此流的存在性和唯一性假设几乎总能满足。这一结论对我们而言是利好消息:在我们关注的生成建模场景中,流是存在且唯一的 ODE 解(相关证明可参考 [20, 4])。
考虑一个简单的线性向量场 u t ( x ) = − θ x u_t(x) = -\theta x u t ( x ) = − θ x (其中 θ > 0 \theta > 0 θ > 0 ),则函数:
ψ t ( x 0 ) = exp ( − θ t ) x 0 (3)
\psi_t(x_0) = \exp(-\theta t) x_0 \tag{3}
ψ t ( x 0 ) = exp ( − θt ) x 0 ( 3 ) 定义了一个满足方程 (2) 的流。我们可以自行验证:首先,ψ 0 ( x 0 ) = x 0 \psi_0(x_0) = x_0 ψ 0 ( x 0 ) = x 0 满足初始条件;其次,对 ψ t ( x 0 ) \psi_t(x_0) ψ t ( x 0 ) 求导:
d d t ψ t ( x 0 ) = ( 3 ) d d t ( exp ( − θ t ) x 0 ) = ( i ) − θ exp ( − θ t ) x 0 = ( 3 ) − θ ψ t ( x 0 ) = u t ( ψ t ( x 0 ) )
\frac{d}{dt} \psi_t(x_0) \stackrel{(3)}{=} \frac{d}{dt}\left(\exp(-\theta t) x_0\right) \stackrel{(i)}{=} -\theta \exp(-\theta t) x_0 \stackrel{(3)}{=} -\theta \psi_t(x_0) = u_t(\psi_t(x_0))
d t d ψ t ( x 0 ) = ( 3 ) d t d ( exp ( − θt ) x 0 ) = ( i ) − θ exp ( − θt ) x 0 = ( 3 ) − θ ψ t ( x 0 ) = u t ( ψ t ( x 0 )) 其中步骤 (i) 使用了链式法则。图 3 展示了这种形式的流,其轨迹会指数级收敛到原点。
一般而言,若向量场 u t u_t u t 不像线性函数那样简单,我们无法显式计算流 ψ t \psi_t ψ t ,此时需要使用数值方法来模拟 ODE。幸运的是,这是数值分析中一个经典且研究充分的领域,存在多种高效的数值方法 [11]。其中最简单、最直观的是欧拉法(Euler method):初始化 X 0 = x 0 X_0 = x_0 X 0 = x 0 ,然后通过以下公式迭代更新:
X t + h = X t + h u t ( X t ) ( t = 0 , h , 2 h , 3 h , … , 1 − h ) (4)
X_{t+h} = X_t + h u_t(X_t) \quad (t=0, h, 2h, 3h, \dots, 1-h) \tag{4}
X t + h = X t + h u t ( X t ) ( t = 0 , h , 2 h , 3 h , … , 1 − h ) ( 4 ) 其中 h = n − 1 > 0 h = n^{-1} > 0 h = n − 1 > 0 是步长超参数(n ∈ N n \in \mathbb{N} n ∈ N 为总步数)。对于本课程而言,欧拉法已能满足需求。为了让你了解更复杂的数值方法,我们简要介绍休恩法(Heun’s method),其更新规则如下:
初始猜测新状态:X t + h ′ = X t + h u t ( X t ) X_{t+h}' = X_t + h u_t(X_t) X t + h ′ = X t + h u t ( X t ) 利用当前状态和猜测状态的向量场平均值更新:
X t + h = X t + h 2 ( u t ( X t ) + u t + h ( X t + h ′ ) )
X_{t+h} = X_t + \frac{h}{2}\left(u_t(X_t) + u_{t+h}(X_{t+h}')\right)
X t + h = X t + 2 h ( u t ( X t ) + u t + h ( X t + h ′ ) )
直观来看,休恩法的核心是:先对下一步状态做出初步猜测,再通过该猜测修正初始方向,从而获得更准确的更新结果。 我们现在可以通过 ODE 构建生成模型。回顾生成建模的核心目标:将简单分布 p init p_{\text{init}} p init 转换为复杂的目标分布 p data p_{\text{data}} p data 。ODE 的模拟自然适合这一转换任务——流模型就是通过神经网络参数化向量场 u t θ u_t^\theta u t θ 构建的 ODE 系统,形式为:
X 0 ∼ p init (随机初始化)
X_0 \sim p_{\text{init}} \quad \text{(随机初始化)}
X 0 ∼ p init (随机初始化)
d d t X t = u t θ ( X t ) (ODE 核心方程)
\frac{d}{dt} X_t = u_t^\theta(X_t) \quad \text{(ODE 核心方程)}
d t d X t = u t θ ( X t ) ( ODE 核心方程) 其中 u t θ u_t^\theta u t θ 是带有参数 θ \theta θ 的神经网络。目前,我们可将 u t θ u_t^\theta u t θ 视为一个通用的神经网络,即一个连续函数 u t θ : R d × [ 0 , 1 ] → R d u_t^\theta: \mathbb{R}^d \times [0,1] \to \mathbb{R}^d u t θ : R d × [ 0 , 1 ] → R d ;后续章节将详细讨论具体的神经网络架构设计。
流模型的核心目标是让轨迹的终点 X 1 X_1 X 1 服从目标数据分布 p data p_{\text{data}} p data ,即:
X 1 ∼ p data ⇔ ψ t θ ( X 0 ) ∼ p data
X_1 \sim p_{\text{data}} \quad \Leftrightarrow \quad \psi_t^\theta(X_0) \sim p_{\text{data}}
X 1 ∼ p data ⇔ ψ t θ ( X 0 ) ∼ p data 其中 ψ t θ \psi_t^\theta ψ t θ 表示由向量场 u t θ u_t^\theta u t θ 诱导的流。需要注意的是:尽管该模型被称为“流模型”,但神经网络实际参数化的是向量场而非流本身——流需要通过模拟 ODE 来计算。
输入 :神经网络向量场 u t θ u_t^\theta u t θ 、采样步数 n n n
初始化时间 t = 0 t = 0 t = 0 设置步长 h = 1 n h = \frac{1}{n} h = n 1 从先验分布 p init p_{\text{init}} p init 中采样初始状态 X 0 X_0 X 0 对于 i = 1 , 2 , … , n − 1 i = 1, 2, \dots, n-1 i = 1 , 2 , … , n − 1 :计算 X t + h = X t + h ⋅ u t θ ( X t ) X_{t+h} = X_t + h \cdot u_t^\theta(X_t) X t + h = X t + h ⋅ u t θ ( X t ) 更新时间 t ← t + h t \leftarrow t + h t ← t + h 输出终点 X 1 X_1 X 1 (即从 p data p_{\text{data}} p data 中采样的样本) 随机微分方程(SDE)在 ODE 的确定性轨迹基础上,引入了随机轨迹,这类随机轨迹通常被称为随机过程 ( X t ) 0 ≤ t ≤ 1 (X_t)_{0 \leq t \leq 1} ( X t ) 0 ≤ t ≤ 1 。其核心特征是:对于每个 0 ≤ t ≤ 1 0 \leq t \leq 1 0 ≤ t ≤ 1 ,X t X_t X t 是一个随机变量;而映射 t ↦ X t t \mapsto X_t t ↦ X t 是一条随机轨迹——即使模拟同一个 SDE 两次,也可能得到不同的结果,因为其动力学过程包含随机性。
SDE 的构建依赖于布朗运动——这是一个源于物理扩散过程研究的基础随机过程,可理解为连续时间下的随机游走。布朗运动的严格定义如下:
一个布朗运动 W = ( W t ) 0 ≤ t ≤ 1 W = (W_t)_{0 \leq t \leq 1} W = ( W t ) 0 ≤ t ≤ 1 是满足以下条件的随机过程:
初始条件:W 0 = 0 W_0 = 0 W 0 = 0 轨迹连续性:映射 t ↦ W t t \mapsto W_t t ↦ W t 是连续的 正态增量:对于所有 0 ≤ s < t 0 \leq s < t 0 ≤ s < t ,增量 W t − W s ∼ N ( 0 , ( t − s ) I d ) W_t - W_s \sim \mathcal{N}(0, (t-s) I_d) W t − W s ∼ N ( 0 , ( t − s ) I d ) (即增量服从高斯分布,方差与时间差成正比,I d I_d I d 为单位矩阵) 独立增量:对于任意 0 ≤ t 0 < t 1 < ⋯ < t n = 1 0 \leq t_0 < t_1 < \dots < t_n = 1 0 ≤ t 0 < t 1 < ⋯ < t n = 1 ,增量 W t 1 − W t 0 , … , W t n − W t n − 1 W_{t_1} - W_{t_0}, \dots, W_{t_n} - W_{t_{n-1}} W t 1 − W t 0 , … , W t n − W t n − 1 是相互独立的随机变量 布朗运动也被称为维纳过程(Wiener process),这也是我们用字母“W”表示它的原因。我们可以通过步长 h > 0 h > 0 h > 0 近似模拟布朗运动:初始化 W 0 = 0 W_0 = 0 W 0 = 0 ,然后通过以下公式迭代更新:
W t + h = W t + h ϵ t , ϵ t ∼ N ( 0 , I d ) ( t = 0 , h , 2 h , … , 1 − h ) (5)
W_{t+h} = W_t + \sqrt{h} \epsilon_t, \quad \epsilon_t \sim \mathcal{N}(0, I_d) \quad (t=0, h, 2h, \dots, 1-h) \tag{5}
W t + h = W t + h ϵ t , ϵ t ∼ N ( 0 , I d ) ( t = 0 , h , 2 h , … , 1 − h ) ( 5 ) 图 2 展示了一维布朗运动(d = 1 d=1 d = 1 )的几条示例轨迹。
布朗运动在随机过程研究中的地位,堪比高斯分布在概率论中的地位,其应用范围远超机器学习,涵盖金融、统计物理、流行病学等多个领域。例如,在金融领域,布朗运动被用于建模复杂金融工具的价格波动;从纯数学角度来看,布朗运动也极具魅力——其轨迹是连续的(可以不抬笔一笔画完),但长度却是无限的(永远无法画完)。
SDE 的核心思想是在 ODE 的确定性动力学基础上,加入由布朗运动驱动的随机动力学。由于 SDE 包含随机性,我们无法再像 ODE 那样直接使用导数形式(式 (1a)),因此需要找到一种不依赖导数的等价表述。
首先,我们将 ODE 的轨迹 ( X t ) 0 ≤ t ≤ 1 (X_t)_{0 \leq t \leq 1} ( X t ) 0 ≤ t ≤ 1 重写为:
d d t X t = u t ( X t ) (导数形式)
\frac{d}{dt} X_t = u_t(X_t) \quad \text{(导数形式)}
d t d X t = u t ( X t ) (导数形式)
⇔ ( i ) 1 h ( X t + h − X t ) = u t ( X t ) + R t ( h ) ⇔ X t + h = X t + h u t ( X t ) + h R t ( h )
\stackrel{(i)}{\Leftrightarrow} \frac{1}{h}(X_{t+h} - X_t) = u_t(X_t) + R_t(h) \quad \Leftrightarrow \quad X_{t+h} = X_t + h u_t(X_t) + h R_t(h)
⇔ ( i ) h 1 ( X t + h − X t ) = u t ( X t ) + R t ( h ) ⇔ X t + h = X t + h u t ( X t ) + h R t ( h ) 其中 R t ( h ) R_t(h) R t ( h ) 是小步长 h h h 下的可忽略函数(即 lim h → 0 R t ( h ) = 0 \lim_{h \to 0} R_t(h) = 0 lim h → 0 R t ( h ) = 0 ),步骤 (i) 直接使用了导数的定义。上述推导本质上重申了 ODE 轨迹的核心特征:在每个时间步,轨迹会沿着向量场 u t ( X t ) u_t(X_t) u t ( X t ) 的方向迈出一小步。
基于此,我们可以将 ODE 扩展为 SDE:SDE 的轨迹在每个时间步不仅会沿着 u t ( X t ) u_t(X_t) u t ( X t ) 的方向迈出确定性一步,还会叠加布朗运动带来的随机步,形式为:
\[
X_{t+h} = X_t + \underbrace{h u_t(X_t)}_{确定性项} + \sigma_t \underbrace{(W_{t+h} - W_t)}_{随机项} + \underbrace{h R_t(h)}_{误差项} \tag{6}
\]
其中:
σ t ≥ 0 \sigma_t \geq 0 σ t ≥ 0 是扩散系数,控制随机项的强度R t ( h ) R_t(h) R t ( h ) 是随机误差项,满足 E [ ∥ R t ( h ) ∥ 2 ] 1 / 2 → 0 \mathbb{E}[\|R_t(h)\|^2]^{1/2} \to 0 E [ ∥ R t ( h ) ∥ 2 ] 1/2 → 0 (当 h → 0 h \to 0 h → 0 时)上述方程即为随机微分方程(SDE),其标准符号表示为:
d X t = u t ( X t ) d t + σ t d W t (SDE 核心方程) (7a)
dX_t = u_t(X_t) dt + \sigma_t dW_t \tag{7a} \quad \text{(SDE 核心方程)}
d X t = u t ( X t ) d t + σ t d W t ( SDE 核心方程) ( 7a )
X 0 = x 0 (初始条件) (7b)
X_0 = x_0 \tag{7b} \quad \text{(初始条件)}
X 0 = x 0 (初始条件) ( 7b ) 需要注意的是,上述符号中的 d X t dX_t d X t 是式 (6) 的简化表示,不具备严格的数学导数含义。
与 ODE 不同,SDE 不再存在流映射 ϕ t \phi_t ϕ t ——因为轨迹的演化包含随机性,终点 X t X_t X t 无法仅由初始状态 X 0 ∼ p init X_0 \sim p_{\text{init}} X 0 ∼ p init 完全确定。但与 ODE 类似,SDE 的解也满足存在性和唯一性:
若向量场 u : R d × [ 0 , 1 ] → R d u: \mathbb{R}^d \times [0,1] \to \mathbb{R}^d u : R d × [ 0 , 1 ] → R d 是连续可微的且导数有界,且扩散系数 σ t \sigma_t σ t 是连续的,则方程 (7) 定义的 SDE 存在唯一解,该解由随机过程 ( X t ) 0 ≤ t ≤ 1 (X_t)_{0 \leq t \leq 1} ( X t ) 0 ≤ t ≤ 1 给出(满足式 (6))。
若这是一门随机微积分课程,我们会用多个课时严格证明该定理、从基础构造布朗运动,并通过随机积分构建过程 X t X_t X t 。但由于本课程聚焦机器学习,我们仅提供核心结论,感兴趣的读者可参考 [18] 进行更深入的技术学习。
最后需要强调的是:每个 ODE 都可以视为 SDE 的特例——只需令扩散系数 σ t = 0 \sigma_t = 0 σ t = 0 (即移除随机项)。因此,在后续章节中,当我们讨论 SDE 时,默认将 ODE 包含在内作为特殊情况。
考虑常数扩散系数 σ t = σ ≥ 0 \sigma_t = \sigma \geq 0 σ t = σ ≥ 0 和常数线性漂移项 u t ( x ) = − θ x u_t(x) = -\theta x u t ( x ) = − θ x (其中 θ > 0 \theta > 0 θ > 0 ),对应的 SDE 为:
d X t = − θ X t d t + σ d W t (8)
dX_t = -\theta X_t dt + \sigma dW_t \tag{8}
d X t = − θ X t d t + σ d W t ( 8 ) 该 SDE 的解 ( X t ) 0 ≤ t ≤ 1 (X_t)_{0 \leq t \leq 1} ( X t ) 0 ≤ t ≤ 1 被称为奥恩斯坦-乌伦贝克(OU)过程,其轨迹如图 3 所示。其中,向量场 − θ x -\theta x − θ x 会将过程“拉回”中心原点(始终朝着与当前位置相反的方向演化),而扩散系数 σ \sigma σ 则持续引入噪声。当 t → ∞ t \to \infty t → ∞ 时,该过程会收敛到高斯分布 N ( 0 , σ 2 2 θ ) \mathcal{N}(0, \frac{\sigma^2}{2\theta}) N ( 0 , 2 θ σ 2 ) ;特别地,当 σ = 0 \sigma = 0 σ = 0 时,该过程退化为我们在式 (3) 中研究的线性向量场流。
如果目前你对 SDE 的抽象定义感到困惑,无需担心——理解 SDE 的最直观方式是学习其模拟方法。与 ODE 的欧拉法相对应,SDE 最简单的模拟方法是欧拉-马尔可夫法(Euler-Maruyama method):初始化 X 0 = x 0 X_0 = x_0 X 0 = x 0 ,然后通过以下公式迭代更新:
X t + h = X t + h u t ( X t ) + h σ t ϵ t , ϵ t ∼ N ( 0 , I d )
X_{t+h} = X_t + h u_t(X_t) + \sqrt{h} \sigma_t \epsilon_t, \quad \epsilon_t \sim \mathcal{N}(0, I_d)
X t + h = X t + h u t ( X t ) + h σ t ϵ t , ϵ t ∼ N ( 0 , I d ) 其中 h = n − 1 > 0 h = n^{-1} > 0 h = n − 1 > 0 是步长超参数(n ∈ N n \in \mathbb{N} n ∈ N 为总步数)。直观来看,欧拉-马尔可夫法的核心是:在每个时间步,既沿着向量场 u t ( X t ) u_t(X_t) u t ( X t ) 的方向迈出确定性小步,又叠加一个由高斯噪声驱动的随机小步(噪声强度由 h σ t \sqrt{h} \sigma_t h σ t 缩放)。在本课程的 SDE 模拟任务中(例如配套实验),我们通常会使用欧拉-马尔可夫法。
与流模型类似,我们可以通过 SDE 构建生成模型——核心目标仍是将简单分布 p init p_{\text{init}} p init 的样本转换为目标分布 p data p_{\text{data}} p data 的样本。扩散模型的本质是通过神经网络参数化 SDE 的核心组件(向量场 u t u_t u t ),形式为:
X 0 ∼ p init (随机初始化)
X_0 \sim p_{\text{init}} \quad \text{(随机初始化)}
X 0 ∼ p init (随机初始化)
d X t = u t θ ( X t ) d t + σ t d W t (SDE 核心方程)
dX_t = u_t^\theta(X_t) dt + \sigma_t dW_t \quad \text{(SDE 核心方程)}
d X t = u t θ ( X t ) d t + σ t d W t ( SDE 核心方程) 其中 u t θ u_t^\theta u t θ 是带有参数 θ \theta θ 的神经网络,σ t \sigma_t σ t 是固定的扩散系数。
输入 :神经网络向量场 u t θ u_t^\theta u t θ 、采样步数 n n n 、扩散系数 σ t \sigma_t σ t
初始化时间 t = 0 t = 0 t = 0 设置步长 h = 1 n h = \frac{1}{n} h = n 1 从先验分布 p init p_{\text{init}} p init 中采样初始状态 X 0 X_0 X 0 对于 i = 1 , 2 , … , n − 1 i = 1, 2, \dots, n-1 i = 1 , 2 , … , n − 1 :从高斯分布 N ( 0 , I d ) \mathcal{N}(0, I_d) N ( 0 , I d ) 中采样噪声 ϵ \epsilon ϵ 计算 X t + h = X t + h ⋅ u t θ ( X t ) + σ t ⋅ h ϵ X_{t+h} = X_t + h \cdot u_t^\theta(X_t) + \sigma_t \cdot \sqrt{h} \epsilon X t + h = X t + h ⋅ u t θ ( X t ) + σ t ⋅ h ϵ 更新时间 t ← t + h t \leftarrow t + h t ← t + h 输出终点 X 1 X_1 X 1 (即从 p data p_{\text{data}} p data 中采样的样本) 在本文档中,扩散模型由两部分组成:带有参数 θ \theta θ 、用于参数化向量场的神经网络 u t θ u_t^\theta u t θ ,以及固定的扩散系数 σ t \sigma_t σ t ,具体定义如下:
神经网络:u θ : R d × [ 0 , 1 ] → R d u^\theta: \mathbb{R}^d \times [0,1] \to \mathbb{R}^d u θ : R d × [ 0 , 1 ] → R d ,即 ( x , t ) ↦ u t θ ( x ) (x, t) \mapsto u_t^\theta(x) ( x , t ) ↦ u t θ ( x ) (带有参数 θ \theta θ ) 固定扩散系数:σ t : [ 0 , 1 ] → [ 0 , ∞ ) \sigma_t: [0,1] \to [0, \infty) σ t : [ 0 , 1 ] → [ 0 , ∞ ) ,即 t ↦ σ t t \mapsto \sigma_t t ↦ σ t 从 SDE 模型中生成样本(即生成目标对象)的流程如下:
初始化:X 0 ∼ p init X_0 \sim p_{\text{init}} X 0 ∼ p init (从简单分布如高斯分布中采样初始状态) SDE 模拟:d X t = u t θ ( X t ) d t + σ t d W t dX_t = u_t^\theta(X_t) dt + \sigma_t dW_t d X t = u t θ ( X t ) d t + σ t d W t (从 t = 0 t=0 t = 0 到 t = 1 t=1 t = 1 模拟 SDE) 目标:X 1 ∼ p data X_1 \sim p_{\text{data}} X 1 ∼ p data (让轨迹终点服从目标数据分布) 特别地,当 σ t = 0 \sigma_t = 0 σ t = 0 时,扩散模型退化为流模型。
在上一章中,我们构建了流模型和扩散模型,通过模拟常微分方程(ODE)或随机微分方程(SDE)得到轨迹 ( X t ) 0 ≤ t ≤ 1 (X_t)_{0 \leq t \leq 1} ( X t ) 0 ≤ t ≤ 1 ,具体形式如下:
X 0 ∼ p init , d X t = u t θ ( X t ) d t ( 流模型 ) (10)
X_0 \sim p_{\text{init}},\ dX_t = u_t^\theta(X_t) dt \quad (\text{流模型}) \tag{10}
X 0 ∼ p init , d X t = u t θ ( X t ) d t ( 流模型 ) ( 10 )
X 0 ∼ p init , d X t = u t θ ( X t ) d t + σ t d W t ( 扩散模型 ) (11)
X_0 \sim p_{\text{init}},\ dX_t = u_t^\theta(X_t) dt + \sigma_t dW_t \quad (\text{扩散模型}) \tag{11}
X 0 ∼ p init , d X t = u t θ ( X t ) d t + σ t d W t ( 扩散模型 ) ( 11 ) 其中 u t θ u_t^\theta u t θ 是神经网络,σ t \sigma_t σ t 是固定的扩散系数。显然,若随机初始化神经网络的参数 θ \theta θ ,模拟 ODE/SDE 只会得到无意义的结果。与所有机器学习模型一样,我们需要训练神经网络——通过最小化损失函数 L ( θ ) \mathcal{L}(\theta) L ( θ ) (例如均方误差)来实现:
L ( θ ) = ∥ u t θ ( x ) − u t target ( x ) ⏟ 训练目标 ∥ 2
\mathcal{L}(\theta) = \left\| u_t^\theta(x) - \underbrace{u_t^{\text{target}}(x)}_{\text{训练目标}} \right\|^2
L ( θ ) = u t θ ( x ) − 训练目标 u t target ( x ) 2 其中 u t target ( x ) u_t^{\text{target}}(x) u t target ( x ) 是我们希望模型逼近的训练目标。为了推导训练算法,我们分两步进行:本章的目标是推导训练目标 u t target u_t^{\text{target}} u t target 的表达式;下一章将介绍逼近该训练目标的训练算法。自然地,与神经网络 u t θ u_t^\theta u t θ 类似,训练目标本身也应是一个向量场 u t target : R d × [ 0 , 1 ] → R d u_t^{\text{target}}: \mathbb{R}^d \times [0,1] \to \mathbb{R}^d u t target : R d × [ 0 , 1 ] → R d ,且需具备将噪声转换为数据的核心功能。因此,本章的核心任务是推导训练目标 u t target u_t^{\text{target}} u t target 的公式,使得对应的 ODE/SDE 能将先验分布 p init p_{\text{init}} p init 转换为目标数据分布 p data p_{\text{data}} p data 。在此过程中,我们将接触到物理学和随机微积分中的两个核心结果:连续性方程(Continuity Equation)和福克-普朗克方程(Fokker-Planck Equation)。与前文一致,我们将先针对 ODE 阐述核心思想,再将其推广到 SDE。
注:推导流模型和扩散模型训练目标的方法有多种,本章介绍的方法兼具通用性和简洁性,与最新的主流模型保持一致,但可能与你见过的早期扩散模型表述有所不同。后续章节将讨论其他替代形式。
构建训练目标 u t target u_t^{\text{target}} u t target 的第一步是定义概率路径。直观来看,概率路径描述了从噪声分布 p init p_{\text{init}} p init 到数据分布 p data p_{\text{data}} p data 的渐变插值过程(见图 4)。本节将详细解释其构建方式。
对于数据点 z ∈ R d z \in \mathbb{R}^d z ∈ R d ,我们用 δ z \delta_z δ z 表示狄拉克(Dirac)“分布”——这是最简单的分布:从 δ z \delta_z δ z 中采样永远只会得到 z z z (即确定性分布)。
条件(插值)概率路径 是一系列定义在 R d \mathbb{R}^d R d 上的分布 p t ( x ∣ z ) p_t(x | z) p t ( x ∣ z ) ,满足:
p 0 ( ⋅ ∣ z ) = p init , p 1 ( ⋅ ∣ z ) = δ z ∀ z ∈ R d . (12)
p_0(\cdot | z) = p_{\text{init}},\ p_1(\cdot | z) = \delta_z \quad \forall z \in \mathbb{R}^d. \tag{12}
p 0 ( ⋅ ∣ z ) = p init , p 1 ( ⋅ ∣ z ) = δ z ∀ z ∈ R d . ( 12 ) 换句话说,条件概率路径描述了“单个数据点逐步转换为噪声分布”的过程(见图 4)。我们可以将概率路径理解为“分布空间中的轨迹”:每个条件概率路径 p t ( x ∣ z ) p_t(x | z) p t ( x ∣ z ) 会诱导出一个边际概率路径 p t ( x ) p_t(x) p t ( x ) ,其定义为:先从数据分布中采样数据点 z ∼ p data z \sim p_{\text{data}} z ∼ p data ,再从条件分布 p t ( ⋅ ∣ z ) p_t(\cdot | z) p t ( ⋅ ∣ z ) 中采样,最终得到的分布即为边际概率路径(采样过程见式 (13)),其概率密度为:
p t ( x ) = ∫ p t ( x ∣ z ) p data ( z ) d z (14)
p_t(x) = \int p_t(x | z) p_{\text{data}}(z) dz \tag{14}
p t ( x ) = ∫ p t ( x ∣ z ) p data ( z ) d z ( 14 ) 需要注意的是:我们知道如何从 p t p_t p t 中采样,但由于上述积分难以直接计算,无法直接得到其密度值 p t ( x ) p_t(x) p t ( x ) 。结合式 (12) 中对条件概率路径的约束,不难验证边际概率路径会在 p init p_{\text{init}} p init 和 p data p_{\text{data}} p data 之间插值:
p 0 = p init , p 1 = p data ( 噪声-数据插值 ) (15)
p_0 = p_{\text{init}},\ p_1 = p_{\text{data}} \quad (\text{噪声-数据插值}) \tag{15}
p 0 = p init , p 1 = p data ( 噪声 - 数据插值 ) ( 15 ) 最常用的概率路径之一是高斯条件概率路径,也是去噪扩散模型中使用的概率路径。设 α t \alpha_t α t 和 β t \beta_t β t 为噪声调度器(noise schedulers)——它们是连续可微的单调函数,满足 α 0 = β 1 = 0 \alpha_0 = \beta_1 = 0 α 0 = β 1 = 0 且 α 1 = β 0 = 1 \alpha_1 = \beta_0 = 1 α 1 = β 0 = 1 。我们定义条件概率路径:
p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d ) ( 高斯条件路径 ) (16)
p_t(\cdot | z) = \mathcal{N}\left(\alpha_t z, \beta_t^2 I_d\right) \quad (\text{高斯条件路径}) \tag{16}
p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d ) ( 高斯条件路径 ) ( 16 ) 根据 α t \alpha_t α t 和 β t \beta_t β t 的约束条件,该路径满足:
p 0 ( ⋅ ∣ z ) = N ( α 0 z , β 0 2 I d ) = N ( 0 , I d ) , p 1 ( ⋅ ∣ z ) = N ( α 1 z , β 1 2 I d ) = δ z
p_0(\cdot | z) = \mathcal{N}\left(\alpha_0 z, \beta_0^2 I_d\right) = \mathcal{N}(0, I_d),\ p_1(\cdot | z) = \mathcal{N}\left(\alpha_1 z, \beta_1^2 I_d\right) = \delta_z
p 0 ( ⋅ ∣ z ) = N ( α 0 z , β 0 2 I d ) = N ( 0 , I d ) , p 1 ( ⋅ ∣ z ) = N ( α 1 z , β 1 2 I d ) = δ z 其中利用了“方差为零、均值为 z z z 的正态分布等价于狄拉克分布 δ z \delta_z δ z ”这一性质。因此,对于先验分布 p init = N ( 0 , I d ) p_{\text{init}} = \mathcal{N}(0, I_d) p init = N ( 0 , I d ) ,上述 p t ( x ∣ z ) p_t(x | z) p t ( x ∣ z ) 是合法的条件插值路径。高斯条件概率路径具有诸多实用性质,非常契合我们的需求,因此本节后续将以它作为条件概率路径的典型示例。图 4 展示了其在图像上的应用效果。
从边际路径 p t p_t p t 中采样的过程可表示为:
z ∼ p data , ϵ ∼ p init = N ( 0 , I d ) ⟹ x = α t z + β t ϵ ∼ p t
z \sim p_{\text{data}},\ \epsilon \sim p_{\text{init}} = \mathcal{N}(0, I_d) \implies x = \alpha_t z + \beta_t \epsilon \sim p_t
z ∼ p data , ϵ ∼ p init = N ( 0 , I d ) ⟹ x = α t z + β t ϵ ∼ p t 直观来看,该过程的核心是:时间 t t t 越小,添加的噪声越多;当 t = 0 t=0 t = 0 时,采样结果完全是噪声。图 5 展示了高斯噪声与简单数据分布之间的插值路径示例。
现在,我们利用前文定义的概率路径 p t p_t p t ,为流模型构建训练目标 u t target u_t^{\text{target}} u t target 。核心思路是:从可通过解析方法手动推导的简单组件出发,构造训练目标。
对于每个数据点 z ∈ R d z \in \mathbb{R}^d z ∈ R d ,设 u t target ( ⋅ ∣ z ) u_t^{\text{target}}(\cdot | z) u t target ( ⋅ ∣ z ) 为条件向量场,其对应的 ODE 满足条件概率路径 p t ( ⋅ ∣ z ) p_t(\cdot | z) p t ( ⋅ ∣ z ) ,即:
X 0 ∼ p init , d d t X t = u t target ( X t ∣ z ) ⟹ X t ∼ p t ( ⋅ ∣ z ) ( 0 ≤ t ≤ 1 ) . (18)
X_0 \sim p_{\text{init}},\ \frac{d}{dt}X_t = u_t^{\text{target}}(X_t | z) \implies X_t \sim p_t(\cdot | z) \quad (0 \leq t \leq 1). \tag{18}
X 0 ∼ p init , d t d X t = u t target ( X t ∣ z ) ⟹ X t ∼ p t ( ⋅ ∣ z ) ( 0 ≤ t ≤ 1 ) . ( 18 ) 则由下式定义的边际向量场 u t target ( x ) u_t^{\text{target}}(x) u t target ( x ) :
u t target ( x ) = ∫ u t target ( x ∣ z ) p t ( x ∣ z ) p data ( z ) p t ( x ) d z , (19)
u_t^{\text{target}}(x) = \int u_t^{\text{target}}(x | z) \frac{p_t(x | z) p_{\text{data}}(z)}{p_t(x)} dz, \tag{19}
u t target ( x ) = ∫ u t target ( x ∣ z ) p t ( x ) p t ( x ∣ z ) p data ( z ) d z , ( 19 ) 将遵循边际概率路径,即:
X 0 ∼ p init , d d t X t = u t target ( X t ) ⟹ X t ∼ p t ( 0 ≤ t ≤ 1 ) . (20)
X_0 \sim p_{\text{init}},\ \frac{d}{dt}X_t = u_t^{\text{target}}(X_t) \implies X_t \sim p_t \quad (0 \leq t \leq 1). \tag{20}
X 0 ∼ p init , d t d X t = u t target ( X t ) ⟹ X t ∼ p t ( 0 ≤ t ≤ 1 ) . ( 20 ) 特别地,该 ODE 的终点 X 1 ∼ p data X_1 \sim p_{\text{data}} X 1 ∼ p data ,因此可以说“u t target u_t^{\text{target}} u t target 将噪声 p init p_{\text{init}} p init 转换为数据 p data p_{\text{data}} p data ”。
图 6 直观展示了该定理的核心思想。在证明该定理之前,我们先说明其价值:边缘化技巧允许我们通过条件向量场构造边际向量场,极大简化了训练目标的推导——因为我们通常可以通过解析方法手动推导满足式 (18) 的条件向量场 u t target ( ⋅ ∣ z ) u_t^{\text{target}}(\cdot | z) u t target ( ⋅ ∣ z ) (仅需简单代数运算)。下面以高斯条件概率路径为例,推导对应的条件向量场 u t ( x ∣ z ) u_t(x | z) u t ( x ∣ z ) 。
如前所述,设高斯条件概率路径为 p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d ) p_t(\cdot | z) = \mathcal{N}(\alpha_t z, \beta_t^2 I_d) p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d ) (α t , β t \alpha_t, \beta_t α t , β t 为噪声调度器,见式 (16))。用 α ˙ t = ∂ t α t \dot{\alpha}_t = \partial_t \alpha_t α ˙ t = ∂ t α t 和 β ˙ t = ∂ t β t \dot{\beta}_t = \partial_t \beta_t β ˙ t = ∂ t β t 分别表示 α t \alpha_t α t 和 β t \beta_t β t 的时间导数。我们需要证明:条件高斯向量场
u t target ( x ∣ z ) = ( α ˙ t − β ˙ t β t α t ) z + β ˙ t β t x (21)
u_t^{\text{target}}(x | z) = \left( \dot{\alpha}_t - \frac{\dot{\beta}_t}{\beta_t} \alpha_t \right) z + \frac{\dot{\beta}_t}{\beta_t} x \tag{21}
u t target ( x ∣ z ) = ( α ˙ t − β t β ˙ t α t ) z + β t β ˙ t x ( 21 ) 是定理 10 意义下的合法条件向量场模型——若 X 0 ∼ N ( 0 , I d ) X_0 \sim \mathcal{N}(0, I_d) X 0 ∼ N ( 0 , I d ) ,则其 ODE 轨迹 X t X_t X t 满足 X t ∼ p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d ) X_t \sim p_t(\cdot | z) = \mathcal{N}(\alpha_t z, \beta_t^2 I_d) X t ∼ p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d ) 。图 6 通过可视化验证了这一点:条件概率路径的真实采样结果( ground truth)与该流的 ODE 轨迹采样结果完全匹配。以下是具体证明过程:
证明 :首先构造条件流模型 ψ t target ( x ∣ z ) \psi_t^{\text{target}}(x | z) ψ t target ( x ∣ z ) ,定义为:
ψ t target ( x ∣ z ) = α t z + β t x . (22)
\psi_t^{\text{target}}(x | z) = \alpha_t z + \beta_t x. \tag{22}
ψ t target ( x ∣ z ) = α t z + β t x . ( 22 ) 若 X t X_t X t 是 ψ t target ( ⋅ ∣ z ) \psi_t^{\text{target}}(\cdot | z) ψ t target ( ⋅ ∣ z ) 对应的 ODE 轨迹,且 X 0 ∼ p init = N ( 0 , I d ) X_0 \sim p_{\text{init}} = \mathcal{N}(0, I_d) X 0 ∼ p init = N ( 0 , I d ) ,则根据定义:
X t = ψ t target ( X 0 ∣ z ) = α t z + β t X 0 ∼ N ( α t z , β t 2 I d ) = p t ( ⋅ ∣ z ) .
X_t = \psi_t^{\text{target}}(X_0 | z) = \alpha_t z + \beta_t X_0 \sim \mathcal{N}(\alpha_t z, \beta_t^2 I_d) = p_t(\cdot | z).
X t = ψ t target ( X 0 ∣ z ) = α t z + β t X 0 ∼ N ( α t z , β t 2 I d ) = p t ( ⋅ ∣ z ) . 由此可得出:轨迹的分布与条件概率路径一致(即满足式 (18))。接下来需要从 ψ t target ( x ∣ z ) \psi_t^{\text{target}}(x | z) ψ t target ( x ∣ z ) 中提取条件向量场 u t target ( x ∣ z ) u_t^{\text{target}}(x | z) u t target ( x ∣ z ) 。根据流的定义(式 (2b)),对所有 x , z ∈ R d x, z \in \mathbb{R}^d x , z ∈ R d ,有:
d d t ψ t target ( x ∣ z ) = u t target ( ψ t target ( x ∣ z ) ∣ z )
\frac{d}{dt} \psi_t^{\text{target}}(x | z) = u_t^{\text{target}}\left( \psi_t^{\text{target}}(x | z) | z \right)
d t d ψ t target ( x ∣ z ) = u t target ( ψ t target ( x ∣ z ) ∣ z )
⇔ ( i ) α ˙ t z + β ˙ t x = u t target ( α t z + β t x ∣ z ) ∀ x , z ∈ R d
\stackrel{(i)}{\Leftrightarrow} \dot{\alpha}_t z + \dot{\beta}_t x = u_t^{\text{target}}\left( \alpha_t z + \beta_t x | z \right) \quad \forall x, z \in \mathbb{R}^d
⇔ ( i ) α ˙ t z + β ˙ t x = u t target ( α t z + β t x ∣ z ) ∀ x , z ∈ R d
⇔ ( i i ) α ˙ t z + β ˙ t ( x − α t z β t ) = u t target ( x ∣ z ) ∀ x , z ∈ R d
\stackrel{(ii)}{\Leftrightarrow} \dot{\alpha}_t z + \dot{\beta}_t \left( \frac{x - \alpha_t z}{\beta_t} \right) = u_t^{\text{target}}(x | z) \quad \forall x, z \in \mathbb{R}^d
⇔ ( ii ) α ˙ t z + β ˙ t ( β t x − α t z ) = u t target ( x ∣ z ) ∀ x , z ∈ R d
⇔ ( i i i ) ( α ˙ t − β ˙ t β t α t ) z + β ˙ t β t x = u t target ( x ∣ z ) ∀ x , z ∈ R d
\stackrel{(iii)}{\Leftrightarrow} \left( \dot{\alpha}_t - \frac{\dot{\beta}_t}{\beta_t} \alpha_t \right) z + \frac{\dot{\beta}_t}{\beta_t} x = u_t^{\text{target}}(x | z) \quad \forall x, z \in \mathbb{R}^d
⇔ ( iii ) ( α ˙ t − β t β ˙ t α t ) z + β t β ˙ t x = u t target ( x ∣ z ) ∀ x , z ∈ R d 其中步骤 (i) 利用了 ψ t target ( x ∣ z ) \psi_t^{\text{target}}(x | z) ψ t target ( x ∣ z ) 的定义(式 (22));步骤 (ii) 通过变量替换 x → x − α t z β t x \to \frac{x - \alpha_t z}{\beta_t} x → β t x − α t z 重新参数化;步骤 (iii) 仅进行了代数整理。最终得到的等式即为式 (21) 定义的条件高斯向量场,证明完成。
注:也可通过将该向量场代入后续介绍的连续性方程,验证其正确性。
本节剩余部分将通过连续性方程 (数学和物理学中的核心结果)证明定理 10。为了理解该方程,我们先定义散度算子(divergence operator)d i v div d i v :
d i v ( v t ) ( x ) = ∑ i = 1 d ∂ ∂ x i v t ( x )
div(v_t)(x) = \sum_{i=1}^d \frac{\partial}{\partial x_i} v_t(x)
d i v ( v t ) ( x ) = i = 1 ∑ d ∂ x i ∂ v t ( x ) 考虑流模型的向量场为 u t target u_t^{\text{target}} u t target ,且 X 0 ∼ p init X_0 \sim p_{\text{init}} X 0 ∼ p init 。则对所有 0 ≤ t ≤ 1 0 \leq t \leq 1 0 ≤ t ≤ 1 ,X t ∼ p t X_t \sim p_t X t ∼ p t 的充要条件是:
∂ t p t ( x ) = − d i v ( p t u t target ) ( x ) ∀ x ∈ R d , 0 ≤ t ≤ 1 , (24)
\partial_t p_t(x) = -div\left( p_t u_t^{\text{target}} \right)(x) \quad \forall x \in \mathbb{R}^d, 0 \leq t \leq 1, \tag{24}
∂ t p t ( x ) = − d i v ( p t u t target ) ( x ) ∀ x ∈ R d , 0 ≤ t ≤ 1 , ( 24 ) 其中 ∂ t p t ( x ) = d d t p t ( x ) \partial_t p_t(x) = \frac{d}{dt} p_t(x) ∂ t p t ( x ) = d t d p t ( x ) 表示 p t ( x ) p_t(x) p t ( x ) 的时间导数。式 (24) 即为连续性方程。
对于有数学基础的读者,附录 B 提供了连续性方程的完整证明。在此之前,我们先直观理解其含义:左侧 ∂ t p t ( x ) \partial_t p_t(x) ∂ t p t ( x ) 描述了位置 x x x 处的概率 p t ( x ) p_t(x) p t ( x ) 随时间的变化率;直观来看,这个变化率应等于概率质量的净流入量。在流模型中,粒子 X t X_t X t 会沿着向量场 u t target u_t^{\text{target}} u t target 运动——从物理学角度,散度 d i v div d i v 衡量向量场的“净流出量”,因此负散度 − d i v -div − d i v 衡量“净流入量”。将其与当前位置 x x x 处的总概率质量相乘,− d i v ( p t u t ) -div(p_t u_t) − d i v ( p t u t ) 即表示概率质量的总净流入量。由于概率质量守恒,方程左右两侧必然相等。
定理 10 的证明 :根据定理 12,我们需要证明式 (19) 定义的边际向量场 u t target u_t^{\text{target}} u t target 满足连续性方程。通过直接计算可验证:
∂ t p t ( x ) = ( i ) ∂ t ∫ p t ( x ∣ z ) p data ( z ) d z = ∫ ∂ t p t ( x ∣ z ) p data ( z ) d z = ( i i ) ∫ − d i v ( p t ( ⋅ ∣ z ) u t target ( ⋅ ∣ z ) ) ( x ) p data ( z ) d z = ( i i i ) − d i v ( ∫ p t ( x ∣ z ) u t target ( x ∣ z ) p data ( z ) d z ) = ( i v ) − d i v ( p t ( x ) ∫ u t target ( x ∣ z ) p t ( x ∣ z ) p data ( z ) p t ( x ) d z ) ( x ) = ( v ) − d i v ( p t u t target ) ( x ) ,
\begin{aligned}
\partial_t p_t(x) & \stackrel{(i)}{=} \partial_t \int p_t(x | z) p_{\text{data}}(z) dz \\
& = \int \partial_t p_t(x | z) p_{\text{data}}(z) dz \\
& \stackrel{(ii)}{=} \int -div\left( p_t(\cdot | z) u_t^{\text{target}}(\cdot | z) \right)(x) p_{\text{data}}(z) dz \\
& \stackrel{(iii)}{=} -div\left( \int p_t(x | z) u_t^{\text{target}}(x | z) p_{\text{data}}(z) dz \right) \\
& \stackrel{(iv)}{=} -div\left( p_t(x) \int u_t^{\text{target}}(x | z) \frac{p_t(x | z) p_{\text{data}}(z)}{p_t(x)} dz \right)(x) \\
& \stackrel{(v)}{=} -div\left( p_t u_t^{\text{target}} \right)(x),
\end{aligned}
∂ t p t ( x ) = ( i ) ∂ t ∫ p t ( x ∣ z ) p data ( z ) d z = ∫ ∂ t p t ( x ∣ z ) p data ( z ) d z = ( ii ) ∫ − d i v ( p t ( ⋅ ∣ z ) u t target ( ⋅ ∣ z ) ) ( x ) p data ( z ) d z = ( iii ) − d i v ( ∫ p t ( x ∣ z ) u t target ( x ∣ z ) p data ( z ) d z ) = ( i v ) − d i v ( p t ( x ) ∫ u t target ( x ∣ z ) p t ( x ) p t ( x ∣ z ) p data ( z ) d z ) ( x ) = ( v ) − d i v ( p t u t target ) ( x ) , 其中步骤 (i) 利用了式 (13) 中 p t ( x ) p_t(x) p t ( x ) 的定义;步骤 (ii) 对条件概率路径 p t ( ⋅ ∣ z ) p_t(\cdot | z) p t ( ⋅ ∣ z ) 应用连续性方程;步骤 (iii) 利用式 (23) 交换积分与散度算子的顺序;步骤 (iv) 对积分项乘以并除以 p t ( x ) p_t(x) p t ( x ) ;步骤 (v) 利用了式 (19) 中边际向量场的定义。上述等式链的首尾表明,u t target u_t^{\text{target}} u t target 满足连续性方程;根据定理 12,这足以证明式 (20),证明完成。
我们已经成功为流模型构建了训练目标,现在将这一思路推广到 SDE。为此,我们定义 p t p_t p t 的边际得分函数为 ∇ log p t ( x ) \nabla \log p_t(x) ∇ log p t ( x ) ——利用该函数,可将上一节的 ODE 扩展为 SDE,具体结果如下:
设条件向量场 u t target ( x ∣ z ) u_t^{\text{target}}(x | z) u t target ( x ∣ z ) 和边际向量场 u t target ( x ) u_t^{\text{target}}(x) u t target ( x ) 定义如前所述。则对于扩散系数 σ t ≥ 0 \sigma_t \geq 0 σ t ≥ 0 ,可构造如下 SDE,其将遵循相同的概率路径:
X 0 ∼ p init , d X t = [ u t target ( X t ) + σ t 2 2 ∇ log p t ( X t ) ] d t + σ t d W t ⟹ X t ∼ p t ( 0 ≤ t ≤ 1 )
\begin{array}{rl}
X_0 \sim & p_{\text{init}},\ dX_t = \left[ u_t^{\text{target}}(X_t) + \frac{\sigma_t^2}{2} \nabla \log p_t(X_t) \right] dt + \sigma_t dW_t \\
\implies X_t \sim & p_t \quad (0 \leq t \leq 1)
\end{array}
X 0 ∼ ⟹ X t ∼ p init , d X t = [ u t target ( X t ) + 2 σ t 2 ∇ log p t ( X t ) ] d t + σ t d W t p t ( 0 ≤ t ≤ 1 ) 特别地,该 SDE 的终点 X 1 ∼ p data X_1 \sim p_{\text{data}} X 1 ∼ p data 。若将边际概率 p t ( x ) p_t(x) p t ( x ) 和边际向量场 u t target ( x ) u_t^{\text{target}}(x) u t target ( x ) 分别替换为条件概率路径 p t ( x ∣ z ) p_t(x | z) p t ( x ∣ z ) 和条件向量场 u t target ( x ∣ z ) u_t^{\text{target}}(x | z) u t target ( x ∣ z ) ,上述等式依然成立。
图 7 直观展示了该定理的效果。定理 13 中的公式之所以实用,是因为与前文类似,边际得分函数可通过条件得分函数 ∇ log p t ( x ∣ z ) \nabla \log p_t(x | z) ∇ log p t ( x ∣ z ) 表示:
∇ log p t ( x ) = ∇ p t ( x ) p t ( x ) = ∇ ∫ p t ( x ∣ z ) p data ( z ) d z p t ( x ) = ∫ ∇ p t ( x ∣ z ) p data ( z ) d z p t ( x ) = ∫ ∇ log p t ( x ∣ z ) p t ( x ∣ z ) p data ( z ) p t ( x ) d z (27)
\nabla \log p_t(x) = \frac{\nabla p_t(x)}{p_t(x)} = \frac{\nabla \int p_t(x | z) p_{\text{data}}(z) dz}{p_t(x)} = \frac{\int \nabla p_t(x | z) p_{\text{data}}(z) dz}{p_t(x)} = \int \nabla \log p_t(x | z) \frac{p_t(x | z) p_{\text{data}}(z)}{p_t(x)} dz \tag{27}
∇ log p t ( x ) = p t ( x ) ∇ p t ( x ) = p t ( x ) ∇ ∫ p t ( x ∣ z ) p data ( z ) d z = p t ( x ) ∫ ∇ p t ( x ∣ z ) p data ( z ) d z = ∫ ∇ log p t ( x ∣ z ) p t ( x ) p t ( x ∣ z ) p data ( z ) d z ( 27 ) 而条件得分函数 ∇ log p t ( x ∣ z ) \nabla \log p_t(x | z) ∇ log p t ( x ∣ z ) 通常可通过解析方法求解,以下示例将具体说明。
对于高斯条件概率路径 p t ( x ∣ z ) = N ( x ; α t z , β t 2 I d ) p_t(x | z) = \mathcal{N}(x; \alpha_t z, \beta_t^2 I_d) p t ( x ∣ z ) = N ( x ; α t z , β t 2 I d ) ,利用高斯概率密度的形式(见式 (81)),可推导条件得分函数:
∇ log p t ( x ∣ z ) = ∇ log N ( x ; α t z , β t 2 I d ) = − x − α t z β t 2 . (28)
\nabla \log p_t(x | z) = \nabla \log \mathcal{N}\left( x; \alpha_t z, \beta_t^2 I_d \right) = -\frac{x - \alpha_t z}{\beta_t^2}. \tag{28}
∇ log p t ( x ∣ z ) = ∇ log N ( x ; α t z , β t 2 I d ) = − β t 2 x − α t z . ( 28 ) 需要注意的是,该得分函数是 x x x 的线性函数——这是高斯分布的独特性质。
本节剩余部分将通过福克-普朗克方程 (将连续性方程从 ODE 扩展到 SDE)证明定理 13。为此,我们先定义拉普拉斯算子(Laplacian operator)Δ \Delta Δ :
Δ w t ( x ) = ∑ i = 1 d ∂ 2 ∂ x i 2 w t ( x ) = d i v ( ∇ w t ) ( x ) . (29)
\Delta w_t(x) = \sum_{i=1}^d \frac{\partial^2}{\partial x_i^2} w_t(x) = div\left( \nabla w_t \right)(x). \tag{29}
Δ w t ( x ) = i = 1 ∑ d ∂ x i 2 ∂ 2 w t ( x ) = d i v ( ∇ w t ) ( x ) . ( 29 ) 设 p t p_t p t 为概率路径,考虑 SDE:
X 0 ∼ p init , d X t = u t ( X t ) d t + σ t d W t .
X_0 \sim p_{\text{init}},\ dX_t = u_t(X_t) dt + \sigma_t dW_t.
X 0 ∼ p init , d X t = u t ( X t ) d t + σ t d W t . 则对所有 0 ≤ t ≤ 1 0 \leq t \leq 1 0 ≤ t ≤ 1 ,X t X_t X t 服从分布 p t p_t p t 的充要条件是福克-普朗克方程成立:
∂ t p t ( x ) = − d i v ( p t u t ) ( x ) + σ t 2 2 Δ p t ( x ) ∀ x ∈ R d , 0 ≤ t ≤ 1. (30)
\partial_t p_t(x) = -div\left( p_t u_t \right)(x) + \frac{\sigma_t^2}{2} \Delta p_t(x) \quad \forall x \in \mathbb{R}^d, 0 \leq t \leq 1. \tag{30}
∂ t p t ( x ) = − d i v ( p t u t ) ( x ) + 2 σ t 2 Δ p t ( x ) ∀ x ∈ R d , 0 ≤ t ≤ 1. ( 30 ) 附录 B 提供了福克-普朗克方程的完整证明。需要注意的是:当 σ t = 0 \sigma_t = 0 σ t = 0 时,福克-普朗克方程退化为连续性方程。新增的拉普拉斯项 Δ p t \Delta p_t Δ p t 初看难以理解,但熟悉物理学的读者会发现,它与热传导方程中的项完全一致(热传导方程本质是福克-普朗克方程的特例)——热量会在介质中扩散,而我们在模型中引入了数学意义上的扩散过程,因此需要添加该拉普拉斯项。
定理 13 的证明 :根据定理 15,我们需要证明式 (25) 定义的 SDE 满足 p t p_t p t 对应的福克-普朗克方程。通过直接计算可验证:
∂ t p t ( x ) = ( i ) − d i v ( p t u t target ) ( x ) = ( i i ) − d i v ( p t u t target ) ( x ) − σ t 2 2 Δ p t ( x ) + σ t 2 2 Δ p t ( x ) = ( i i i ) − d i v ( p t u t target ) ( x ) − d i v ( σ t 2 2 ∇ p t ) ( x ) + σ t 2 2 Δ p t ( x ) = ( i v ) − d i v ( p t u t target ) ( x ) − d i v ( p t [ σ t 2 2 ∇ log p t ] ) ( x ) + σ t 2 2 Δ p t ( x ) = ( v ) − d i v ( p t [ u t target + σ t 2 2 ∇ log p t ] ) ( x ) + σ t 2 2 Δ p t ( x ) ,
\begin{aligned}
\partial_t p_t(x) & \stackrel{(i)}{=} -div\left( p_t u_t^{\text{target}} \right)(x) \\
& \stackrel{(ii)}{=} -div\left( p_t u_t^{\text{target}} \right)(x) - \frac{\sigma_t^2}{2} \Delta p_t(x) + \frac{\sigma_t^2}{2} \Delta p_t(x) \\
& \stackrel{(iii)}{=} -div\left( p_t u_t^{\text{target}} \right)(x) - div\left( \frac{\sigma_t^2}{2} \nabla p_t \right)(x) + \frac{\sigma_t^2}{2} \Delta p_t(x) \\
& \stackrel{(iv)}{=} -div\left( p_t u_t^{\text{target}} \right)(x) - div\left( p_t \left[ \frac{\sigma_t^2}{2} \nabla \log p_t \right] \right)(x) + \frac{\sigma_t^2}{2} \Delta p_t(x) \\
& \stackrel{(v)}{=} -div\left( p_t \left[ u_t^{\text{target}} + \frac{\sigma_t^2}{2} \nabla \log p_t \right] \right)(x) + \frac{\sigma_t^2}{2} \Delta p_t(x),
\end{aligned}
∂ t p t ( x ) = ( i ) − d i v ( p t u t target ) ( x ) = ( ii ) − d i v ( p t u t target ) ( x ) − 2 σ t 2 Δ p t ( x ) + 2 σ t 2 Δ p t ( x ) = ( iii ) − d i v ( p t u t target ) ( x ) − d i v ( 2 σ t 2 ∇ p t ) ( x ) + 2 σ t 2 Δ p t ( x ) = ( i v ) − d i v ( p t u t target ) ( x ) − d i v ( p t [ 2 σ t 2 ∇ log p t ] ) ( x ) + 2 σ t 2 Δ p t ( x ) = ( v ) − d i v ( p t [ u t target + 2 σ t 2 ∇ log p t ] ) ( x ) + 2 σ t 2 Δ p t ( x ) , 其中步骤 (i) 利用了连续性方程;步骤 (ii) 对等式添加并减去相同项;步骤 (iii) 利用了拉普拉斯算子的定义(式 (29));步骤 (iv) 利用了 ∇ log p t = ∇ p t p t \nabla \log p_t = \frac{\nabla p_t}{p_t} ∇ log p t = p t ∇ p t ;步骤 (v) 利用了散度算子的线性性质。上述推导表明,式 (25) 定义的 SDE 满足 p t p_t p t 对应的福克-普朗克方程;根据定理 15,可推出 0 ≤ t ≤ 1 0 \leq t \leq 1 0 ≤ t ≤ 1 时 X t ∼ p t X_t \sim p_t X t ∼ p t ,证明完成。
上述构造有一个著名的特例:当概率路径为静态(即 p t = p p_t = p p t = p ,p p p 为固定分布)时,令 u t target = 0 u_t^{\text{target}} = 0 u t target = 0 ,可得到 SDE:
d X t = σ t 2 2 ∇ log p ( X t ) d t + σ t d W t , (31)
dX_t = \frac{\sigma_t^2}{2} \nabla \log p(X_t) dt + \sigma_t dW_t, \tag{31}
d X t = 2 σ t 2 ∇ log p ( X t ) d t + σ t d W t , ( 31 ) 这一过程被称为朗之万动力学(Langevin dynamics)。由于 p t p_t p t 是静态的,有 ∂ t p t ( x ) = 0 \partial_t p_t(x) = 0 ∂ t p t ( x ) = 0 ;根据定理 13,这些动力学满足静态路径 p t = p p_t = p p t = p 对应的福克-普朗克方程,因此 p p p 是朗之万动力学的平稳分布,即:
X 0 ∼ p ⟹ X t ∼ p ( t ≥ 0 )
X_0 \sim p \implies X_t \sim p \quad (t \geq 0)
X 0 ∼ p ⟹ X t ∼ p ( t ≥ 0 ) 与许多马尔可夫链类似,在相当一般的条件下,朗之万动力学会收敛到平稳分布 p p p (见 3.3 节):若初始分布 X 0 ∼ p ′ ≠ p X_0 \sim p' \neq p X 0 ∼ p ′ = p ,则其诱导的分布 p t ′ p_t' p t ′ 会在温和条件下收敛到 p p p 。这一性质使得朗之万动力学极具实用价值,成为分子动力学模拟、贝叶斯统计及自然科学中多种马尔可夫链蒙特卡洛(MCMC)方法的基础。
流模型的训练目标是边际向量场 u t target u_t^{\text{target}} u t target ,其构造步骤如下:
选择条件概率路径 p t ( x ∣ z ) p_t(x | z) p t ( x ∣ z ) ,满足 p 0 ( ⋅ ∣ z ) = p init p_0(\cdot | z) = p_{\text{init}} p 0 ( ⋅ ∣ z ) = p init 、p 1 ( ⋅ ∣ z ) = δ z p_1(\cdot | z) = \delta_z p 1 ( ⋅ ∣ z ) = δ z ; 找到条件向量场 u t target ( x ∣ z ) u_t^{\text{target}}(x | z) u t target ( x ∣ z ) ,使其对应的流 ψ t target ( x ∣ z ) \psi_t^{\text{target}}(x | z) ψ t target ( x ∣ z ) 满足:X 0 ∼ p init ⟹ X t = ψ t target ( X 0 ∣ z ) ∼ p t ( ⋅ ∣ z ) X_0 \sim p_{\text{init}} \implies X_t = \psi_t^{\text{target}}(X_0 | z) \sim p_t(\cdot | z) X 0 ∼ p init ⟹ X t = ψ t target ( X 0 ∣ z ) ∼ p t ( ⋅ ∣ z ) (或等价地,u t target u_t^{\text{target}} u t target 满足连续性方程); 边际向量场由下式定义:
u t target ( x ) = ∫ u t target ( x ∣ z ) p t ( x ∣ z ) p data ( z ) p t ( x ) d z , (32)
u_t^{\text{target}}(x) = \int u_t^{\text{target}}(x | z) \frac{p_t(x | z) p_{\text{data}}(z)}{p_t(x)} dz, \tag{32}
u t target ( x ) = ∫ u t target ( x ∣ z ) p t ( x ) p t ( x ∣ z ) p data ( z ) d z , ( 32 )
该向量场将遵循边际概率路径,即:
X 0 ∼ p init , d X t = u t target ( X t ) d t ⟹ X t ∼ p t ( 0 ≤ t ≤ 1 ) . (33)
X_0 \sim p_{\text{init}},\ dX_t = u_t^{\text{target}}(X_t) dt \implies X_t \sim p_t \quad (0 \leq t \leq 1). \tag{33}
X 0 ∼ p init , d X t = u t target ( X t ) d t ⟹ X t ∼ p t ( 0 ≤ t ≤ 1 ) . ( 33 )
特别地,该 ODE 的终点 X 1 ∼ p data X_1 \sim p_{\text{data}} X 1 ∼ p data ,即 u t target u_t^{\text{target}} u t target 实现了“从噪声到数据的转换”。 扩展到 SDE :对于随时间变化的扩散系数 σ t ≥ 0 \sigma_t \geq 0 σ t ≥ 0 ,可将上述 ODE 扩展为遵循相同边际概率路径的 SDE:
X 0 ∼ p init , d X t = [ u t target ( X t ) + σ t 2 2 ∇ log p t ( X t ) ] d t + σ t d W t (34)
X_0 \sim p_{\text{init}},\ dX_t = \left[ u_t^{\text{target}}(X_t) + \frac{\sigma_t^2}{2} \nabla \log p_t(X_t) \right] dt + \sigma_t dW_t \tag{34}
X 0 ∼ p init , d X t = [ u t target ( X t ) + 2 σ t 2 ∇ log p t ( X t ) ] d t + σ t d W t ( 34 )
⟹ X t ∼ p t ( 0 ≤ t ≤ 1 ) , (35)
\implies X_t \sim p_t \quad (0 \leq t \leq 1), \tag{35}
⟹ X t ∼ p t ( 0 ≤ t ≤ 1 ) , ( 35 ) 其中边际得分函数为:
∇ log p t ( x ) = ∫ ∇ log p t ( x ∣ z ) p t ( x ∣ z ) p data ( z ) p t ( x ) d z . (36)
\nabla \log p_t(x) = \int \nabla \log p_t(x | z) \frac{p_t(x | z) p_{\text{data}}(z)}{p_t(x)} dz. \tag{36}
∇ log p t ( x ) = ∫ ∇ log p t ( x ∣ z ) p t ( x ) p t ( x ∣ z ) p data ( z ) d z . ( 36 ) 特别地,该 SDE 的轨迹终点 X 1 ∼ p data X_1 \sim p_{\text{data}} X 1 ∼ p data ,即实现了“从噪声到数据的转换”。
重要示例:高斯概率路径
对于高斯条件概率路径,相关公式如下:
p t ( x ∣ z ) = N ( x ; α t z , β t 2 I d ) (37)
p_t(x | z) = \mathcal{N}\left( x; \alpha_t z, \beta_t^2 I_d \right) \tag{37}
p t ( x ∣ z ) = N ( x ; α t z , β t 2 I d ) ( 37 )
u t target ( x ∣ z ) = ( α ˙ t − β ˙ t β t α t ) z + β ˙ t β t x (38)
u_t^{\text{target}}(x | z) = \left( \dot{\alpha}_t - \frac{\dot{\beta}_t}{\beta_t} \alpha_t \right) z + \frac{\dot{\beta}_t}{\beta_t} x \tag{38}
u t target ( x ∣ z ) = ( α ˙ t − β t β ˙ t α t ) z + β t β ˙ t x ( 38 )
∇ log p t ( x ∣ z ) = − x − α t z β t 2 , (39)
\nabla \log p_t(x | z) = -\frac{x - \alpha_t z}{\beta_t^2}, \tag{39}
∇ log p t ( x ∣ z ) = − β t 2 x − α t z , ( 39 ) 其中 α t , β t ∈ R \alpha_t, \beta_t \in \mathbb{R} α t , β t ∈ R 为噪声调度器,满足:连续可微、单调,且 α 0 = β 1 = 0 \alpha_0 = \beta_1 = 0 α 0 = β 1 = 0 、α 1 = β 0 = 1 \alpha_1 = \beta_0 = 1 α 1 = β 0 = 1 。
在前两章中,我们已经构建了基于神经网络向量场 u t θ u_t^\theta u t θ 的生成模型,并推导了训练目标 u t target u_t^{\text{target}} u t target 的表达式。本章将详细说明如何训练神经网络 u t θ u_t^\theta u t θ 以逼近该训练目标:首先聚焦常微分方程(ODE),引出流匹配(Flow Matching)训练方法;其次将该方法扩展到随机微分方程(SDE),介绍得分匹配(Score Matching);最后以高斯概率路径为特例,还原去噪扩散模型(Denoising Diffusion Models)的训练逻辑。通过这些内容,我们将获得一套完整的、基于 ODE/SDE 的生成模型训练与采样端到端流程。
我们先回顾流模型的核心形式:
X 0 ∼ p init , d X t = u t θ ( X t ) d t (流模型) (40)
X_0 \sim p_{\text{init}}, \quad dX_t = u_t^\theta(X_t) dt \quad \text{(流模型)} \tag{40}
X 0 ∼ p init , d X t = u t θ ( X t ) d t (流模型) ( 40 ) 训练的核心目标是让神经网络向量场 u t θ u_t^\theta u t θ 逼近第 3 章推导的边际向量场 u t target u_t^{\text{target}} u t target ,即找到参数 θ \theta θ 使得 u t θ ≈ u t target u_t^\theta \approx u_t^{\text{target}} u t θ ≈ u t target 。
为实现这一目标,最直观的方式是使用均方误差构建损失函数,即流匹配损失 :
L F M ( θ ) = E t ∼ Unif , x ∼ p t [ ∥ u t θ ( x ) − u t target ( x ) ∥ 2 ] = ( i ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ ∥ u t θ ( x ) − u t target ( x ) ∥ 2 ] ,
\begin{aligned}
\mathcal{L}_{FM}(\theta) & = \mathbb{E}_{t \sim \text{Unif}, x \sim p_t}\left[\left\| u_t^\theta(x) - u_t^{\text{target}}(x) \right\|^2\right] \\
& \stackrel{(i)}{=} \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[\left\| u_t^\theta(x) - u_t^{\text{target}}(x) \right\|^2\right],
\end{aligned}
L FM ( θ ) = E t ∼ Unif , x ∼ p t [ u t θ ( x ) − u t target ( x ) 2 ] = ( i ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ u t θ ( x ) − u t target ( x ) 2 ] , 其中 p t ( x ) = ∫ p t ( x ∣ z ) p data ( z ) d z p_t(x) = \int p_t(x | z) p_{\text{data}}(z) dz p t ( x ) = ∫ p t ( x ∣ z ) p data ( z ) d z 是边际概率路径,步骤 (i) 利用了式 (13) 给出的边际路径采样流程。
该损失的直观逻辑的是:
随机采样一个时间 t ∈ [ 0 , 1 ] t \in [0,1] t ∈ [ 0 , 1 ] ; 从数据分布中采样一个真实样本 z z z ,并基于条件概率路径 p t ( ⋅ ∣ z ) p_t(\cdot | z) p t ( ⋅ ∣ z ) 生成中间样本 x x x (例如通过添加噪声实现); 计算神经网络输出 u t θ ( x ) u_t^\theta(x) u t θ ( x ) 与边际目标向量场 u t target ( x ) u_t^{\text{target}}(x) u t target ( x ) 的均方误差。 然而,直接计算该损失存在困难:根据定理 10,边际目标向量场 u t target ( x ) u_t^{\text{target}}(x) u t target ( x ) 的表达式为:
u t target ( x ) = ∫ u t target ( x ∣ z ) p t ( x ∣ z ) p data ( z ) p t ( x ) d z , (43)
u_t^{\text{target}}(x) = \int u_t^{\text{target}}(x | z) \frac{p_t(x | z) p_{\text{data}}(z)}{p_t(x)} dz, \tag{43}
u t target ( x ) = ∫ u t target ( x ∣ z ) p t ( x ) p t ( x ∣ z ) p data ( z ) d z , ( 43 ) 其中包含难以直接计算的积分项。为解决这一问题,我们利用“条件向量场 u t target ( x ∣ z ) u_t^{\text{target}}(x | z) u t target ( x ∣ z ) 可通过解析方法求解”的特性,定义条件流匹配损失 :
L C F M ( θ ) = E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ ∥ u t θ ( x ) − u t target ( x ∣ z ) ∥ 2 ] . (44)
\mathcal{L}_{CFM}(\theta) = \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[\left\| u_t^\theta(x) - u_t^{\text{target}}(x | z) \right\|^2\right]. \tag{44}
L CFM ( θ ) = E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ u t θ ( x ) − u t target ( x ∣ z ) 2 ] . ( 44 ) 与流匹配损失相比,条件流匹配损失的核心差异是用可解析计算的条件目标向量场 u t target ( x ∣ z ) u_t^{\text{target}}(x | z) u t target ( x ∣ z ) 替代了难以计算的边际目标向量场 u t target ( x ) u_t^{\text{target}}(x) u t target ( x ) ,从而使损失函数具备可训练性。
边际流匹配损失与条件流匹配损失仅相差一个与参数 θ \theta θ 无关的常数,即:
L F M ( θ ) = L C F M ( θ ) + C
\mathcal{L}_{FM}(\theta) = \mathcal{L}_{CFM}(\theta) + C
L FM ( θ ) = L CFM ( θ ) + C 因此,两者的梯度完全一致:
∇ θ L F M ( θ ) = ∇ θ L C F M ( θ ) .
\nabla_\theta \mathcal{L}_{FM}(\theta) = \nabla_\theta \mathcal{L}_{CFM}(\theta).
∇ θ L FM ( θ ) = ∇ θ L CFM ( θ ) . 这意味着,使用随机梯度下降(SGD)等优化算法最小化 L C F M ( θ ) \mathcal{L}_{CFM}(\theta) L CFM ( θ ) ,与最小化 L F M ( θ ) \mathcal{L}_{FM}(\theta) L FM ( θ ) 是等价的。特别地,若神经网络具有足够的表达能力,L C F M ( θ ) \mathcal{L}_{CFM}(\theta) L CFM ( θ ) 的最小值点 θ ∗ \theta^* θ ∗ 会满足 u t θ ∗ = u t target u_t^{\theta^*} = u_t^{\text{target}} u t θ ∗ = u t target 。
通过将均方误差展开为三项并分离常数项,可完成证明:
L F M ( θ ) = ( i ) E t ∼ Unif , x ∼ p t [ ∥ u t θ ( x ) − u t target ( x ) ∥ 2 ] = ( i i ) E t ∼ Unif , x ∼ p t [ ∥ u t θ ( x ) ∥ 2 − 2 u t θ ( x ) T u t target ( x ) + ∥ u t target ( x ) ∥ 2 ] = ( i i i ) E t ∼ Unif , x ∼ p t [ ∥ u t θ ( x ) ∥ 2 ] − 2 E t ∼ Unif , x ∼ p t [ u t θ ( x ) T u t target ( x ) ] + E t ∼ Unif [ 0 , 1 ] , x ∼ p t [ ∥ u t target ( x ) ∥ 2 ] ⏟ = : C 1 = ( i v ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ ∥ u t θ ( x ) ∥ 2 ] − 2 E t ∼ Unif , x ∼ p t [ u t θ ( x ) T u t target ( x ) ] + C 1 ,
\begin{aligned}
\mathcal{L}_{FM}(\theta) & \stackrel{(i)}{=} \mathbb{E}_{t \sim \text{Unif}, x \sim p_t}\left[\left\| u_t^\theta(x) - u_t^{\text{target}}(x) \right\|^2\right] \\
& \stackrel{(ii)}{=} \mathbb{E}_{t \sim \text{Unif}, x \sim p_t}\left[\left\| u_t^\theta(x) \right\|^2 - 2 u_t^\theta(x)^T u_t^{\text{target}}(x) + \left\| u_t^{\text{target}}(x) \right\|^2\right] \\
& \stackrel{(iii)}{=} \mathbb{E}_{t \sim \text{Unif}, x \sim p_t}\left[\left\| u_t^\theta(x) \right\|^2\right] - 2 \mathbb{E}_{t \sim \text{Unif}, x \sim p_t}\left[u_t^\theta(x)^T u_t^{\text{target}}(x)\right] + \underbrace{\mathbb{E}_{t \sim \text{Unif}_{[0,1]}, x \sim p_t}\left[\left\| u_t^{\text{target}}(x) \right\|^2\right]}_{=: C_1} \\
& \stackrel{(iv)}{=} \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[\left\| u_t^\theta(x) \right\|^2\right] - 2 \mathbb{E}_{t \sim \text{Unif}, x \sim p_t}\left[u_t^\theta(x)^T u_t^{\text{target}}(x)\right] + C_1,
\end{aligned}
L FM ( θ ) = ( i ) E t ∼ Unif , x ∼ p t [ u t θ ( x ) − u t target ( x ) 2 ] = ( ii ) E t ∼ Unif , x ∼ p t [ u t θ ( x ) 2 − 2 u t θ ( x ) T u t target ( x ) + u t target ( x ) 2 ] = ( iii ) E t ∼ Unif , x ∼ p t [ u t θ ( x ) 2 ] − 2 E t ∼ Unif , x ∼ p t [ u t θ ( x ) T u t target ( x ) ] + =: C 1 E t ∼ Unif [ 0 , 1 ] , x ∼ p t [ u t target ( x ) 2 ] = ( i v ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ u t θ ( x ) 2 ] − 2 E t ∼ Unif , x ∼ p t [ u t θ ( x ) T u t target ( x ) ] + C 1 , 其中步骤 (i) 为损失定义,步骤 (ii) 利用了平方差展开公式 ∥ a − b ∥ 2 = ∥ a ∥ 2 − 2 a T b + ∥ b ∥ 2 \|a - b\|^2 = \|a\|^2 - 2a^T b + \|b\|^2 ∥ a − b ∥ 2 = ∥ a ∥ 2 − 2 a T b + ∥ b ∥ 2 ,步骤 (iii) 定义常数项 C 1 C_1 C 1 ,步骤 (iv) 利用了边际路径的采样流程。
接下来重新表达第二项期望:
E t ∼ Unif , x ∼ p t [ u t θ ( x ) T u t target ( x ) ] = ( i ) ∫ 0 1 ∫ p t ( x ) u t θ ( x ) T u t target ( x ) d x d t = ( i i ) ∫ 0 1 ∫ p t ( x ) u t θ ( x ) T [ ∫ u t target ( x ∣ z ) p t ( x ∣ z ) p data ( z ) p t ( x ) d z ] d x d t = ( i i i ) ∫ 0 1 ∬ u t θ ( x ) T u t target ( x ∣ z ) p t ( x ∣ z ) p data ( z ) d z d x d t = ( i v ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ u t θ ( x ) T u t target ( x ∣ z ) ] ,
\begin{aligned}
\mathbb{E}_{t \sim \text{Unif}, x \sim p_t}\left[u_t^\theta(x)^T u_t^{\text{target}}(x)\right] & \stackrel{(i)}{=} \int_0^1 \int p_t(x) u_t^\theta(x)^T u_t^{\text{target}}(x) dx dt \\
& \stackrel{(ii)}{=} \int_0^1 \int p_t(x) u_t^\theta(x)^T \left[\int u_t^{\text{target}}(x | z) \frac{p_t(x | z) p_{\text{data}}(z)}{p_t(x)} dz\right] dx dt \\
& \stackrel{(iii)}{=} \int_0^1 \iint u_t^\theta(x)^T u_t^{\text{target}}(x | z) p_t(x | z) p_{\text{data}}(z) dz dx dt \\
& \stackrel{(iv)}{=} \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[u_t^\theta(x)^T u_t^{\text{target}}(x | z)\right],
\end{aligned}
E t ∼ Unif , x ∼ p t [ u t θ ( x ) T u t target ( x ) ] = ( i ) ∫ 0 1 ∫ p t ( x ) u t θ ( x ) T u t target ( x ) d x d t = ( ii ) ∫ 0 1 ∫ p t ( x ) u t θ ( x ) T [ ∫ u t target ( x ∣ z ) p t ( x ) p t ( x ∣ z ) p data ( z ) d z ] d x d t = ( iii ) ∫ 0 1 ∬ u t θ ( x ) T u t target ( x ∣ z ) p t ( x ∣ z ) p data ( z ) d z d x d t = ( i v ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ u t θ ( x ) T u t target ( x ∣ z ) ] , 其中步骤 (i) 将期望转化为积分,步骤 (ii) 代入式 (43) 中 u t target ( x ) u_t^{\text{target}}(x) u t target ( x ) 的表达式,步骤 (iii) 利用积分线性性,步骤 (iv) 重新转化为期望形式。这一步的核心是将边际向量场的期望转化为条件向量场的期望。
将上述结果代入原损失表达式:
L F M ( θ ) = ( i ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ ∥ u t θ ( x ) ∥ 2 ] − 2 E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ u t θ ( x ) T u t target ( x ∣ z ) ] + C 1 = ( i i ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ ∥ u t θ ( x ) ∥ 2 − 2 u t θ ( x ) T u t target ( x ∣ z ) + ∥ u t target ( x ∣ z ) ∥ 2 − ∥ u t target ( x ∣ z ) ∥ 2 ] + C 1 = ( i i i ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ ∥ u t θ ( x ) − u t target ( x ∣ z ) ∥ 2 ] + E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ − ∥ u t target ( x ∣ z ) ∥ 2 ] ⏟ = : C 2 + C 1 = ( i v ) L C F M ( θ ) + C 2 + C 1 ⏟ = : C ,
\begin{aligned}
\mathcal{L}_{FM}(\theta) & \stackrel{(i)}{=} \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[\left\| u_t^\theta(x) \right\|^2\right] - 2 \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[u_t^\theta(x)^T u_t^{\text{target}}(x | z)\right] + C_1 \\
& \stackrel{(ii)}{=} \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[\left\| u_t^\theta(x) \right\|^2 - 2 u_t^\theta(x)^T u_t^{\text{target}}(x | z) + \left\| u_t^{\text{target}}(x | z) \right\|^2 - \left\| u_t^{\text{target}}(x | z) \right\|^2\right] + C_1 \\
& \stackrel{(iii)}{=} \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[\left\| u_t^\theta(x) - u_t^{\text{target}}(x | z) \right\|^2\right] + \underbrace{\mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[-\left\| u_t^{\text{target}}(x | z) \right\|^2\right]}_{=: C_2} + C_1 \\
& \stackrel{(iv)}{=} \mathcal{L}_{CFM}(\theta) + \underbrace{C_2 + C_1}_{=: C},
\end{aligned}
L FM ( θ ) = ( i ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ u t θ ( x ) 2 ] − 2 E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ u t θ ( x ) T u t target ( x ∣ z ) ] + C 1 = ( ii ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ u t θ ( x ) 2 − 2 u t θ ( x ) T u t target ( x ∣ z ) + u t target ( x ∣ z ) 2 − u t target ( x ∣ z ) 2 ] + C 1 = ( iii ) E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ u t θ ( x ) − u t target ( x ∣ z ) 2 ] + =: C 2 E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ − u t target ( x ∣ z ) 2 ] + C 1 = ( i v ) L CFM ( θ ) + =: C C 2 + C 1 , 步骤 (ii) 添加并减去 ∥ u t target ( x ∣ z ) ∥ 2 \left\| u_t^{\text{target}}(x | z) \right\|^2 u t target ( x ∣ z ) 2 ,步骤 (iii) 重新组合为平方差形式并定义常数 C 2 C_2 C 2 ,步骤 (iv) 合并常数项 C = C 1 + C 2 C = C_1 + C_2 C = C 1 + C 2 ,最终证明了两者的等价性。
当 u t θ u_t^\theta u t θ 训练完成后,可通过模拟 ODE(例如使用算法 1 的欧拉法)生成样本 X 1 ∼ p data X_1 \sim p_{\text{data}} X 1 ∼ p data 。这一整套“定义条件损失→训练向量场→模拟 ODE 采样”的流程,即为文献中所说的流匹配 [14, 16, 1, 15],其训练过程可总结为算法 3,可视化效果如图 9 所示。
以高斯条件概率路径 p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d ) p_t(\cdot | z) = \mathcal{N}(\alpha_t z, \beta_t^2 I_d) p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d ) 为例(α t , β t \alpha_t, \beta_t α t , β t 为噪声调度器),其采样过程为:
ϵ ∼ N ( 0 , I d ) ⟹ x t = α t z + β t ϵ ∼ N ( α t z , β t 2 I d ) = p t ( ⋅ ∣ z ) . (46)
\epsilon \sim \mathcal{N}(0, I_d) \implies x_t = \alpha_t z + \beta_t \epsilon \sim \mathcal{N}(\alpha_t z, \beta_t^2 I_d) = p_t(\cdot | z). \tag{46}
ϵ ∼ N ( 0 , I d ) ⟹ x t = α t z + β t ϵ ∼ N ( α t z , β t 2 I d ) = p t ( ⋅ ∣ z ) . ( 46 ) 结合第 3 章推导的条件目标向量场(式 (21)):
u t target ( x ∣ z ) = ( α ˙ t − β ˙ t β t α t ) z + β ˙ t β t x , (47)
u_t^{\text{target}}(x | z) = \left(\dot{\alpha}_t - \frac{\dot{\beta}_t}{\beta_t} \alpha_t\right) z + \frac{\dot{\beta}_t}{\beta_t} x, \tag{47}
u t target ( x ∣ z ) = ( α ˙ t − β t β ˙ t α t ) z + β t β ˙ t x , ( 47 ) 其中 α ˙ t = ∂ t α t \dot{\alpha}_t = \partial_t \alpha_t α ˙ t = ∂ t α t 、β ˙ t = ∂ t β t \dot{\beta}_t = \partial_t \beta_t β ˙ t = ∂ t β t 为时间导数,可将条件流匹配损失具体化为:
L C F M ( θ ) = E t ∼ Unif , z ∼ p data , x ∼ N ( α t z , β t 2 I d ) [ ∥ u t θ ( x ) − ( α ˙ t − β ˙ t β t α t ) z − β ˙ t β t x ∥ 2 ] = ( i ) E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ ∥ u t θ ( α t z + β t ϵ ) − ( α ˙ t z + β ˙ t ϵ ) ∥ 2 ] ,
\begin{aligned}
\mathcal{L}_{CFM}(\theta) & = \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim \mathcal{N}(\alpha_t z, \beta_t^2 I_d)}\left[\left\| u_t^\theta(x) - \left(\dot{\alpha}_t - \frac{\dot{\beta}_t}{\beta_t} \alpha_t\right) z - \frac{\dot{\beta}_t}{\beta_t} x \right\|^2\right] \\
& \stackrel{(i)}{=} \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, \epsilon \sim \mathcal{N}(0, I_d)}\left[\left\| u_t^\theta(\alpha_t z + \beta_t \epsilon) - \left(\dot{\alpha}_t z + \dot{\beta}_t \epsilon\right) \right\|^2\right],
\end{aligned}
L CFM ( θ ) = E t ∼ Unif , z ∼ p data , x ∼ N ( α t z , β t 2 I d ) u t θ ( x ) − ( α ˙ t − β t β ˙ t α t ) z − β t β ˙ t x 2 = ( i ) E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ u t θ ( α t z + β t ϵ ) − ( α ˙ t z + β ˙ t ϵ ) 2 ] , 步骤 (i) 代入了 x = α t z + β t ϵ x = \alpha_t z + \beta_t \epsilon x = α t z + β t ϵ 的采样形式,简化后损失仅需采样数据、噪声和时间,计算极为简便。
针对 α t = t \alpha_t = t α t = t 、β t = 1 − t \beta_t = 1 - t β t = 1 − t 的特殊情况(该概率路径也被称为高斯 CondOT 路径),α ˙ t = 1 \dot{\alpha}_t = 1 α ˙ t = 1 、β ˙ t = − 1 \dot{\beta}_t = -1 β ˙ t = − 1 ,损失进一步简化为:
L C F M ( θ ) = E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ ∥ u t θ ( t z + ( 1 − t ) ϵ ) − ( z − ϵ ) ∥ 2 ] .
\mathcal{L}_{CFM}(\theta) = \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, \epsilon \sim \mathcal{N}(0, I_d)}\left[\left\| u_t^\theta(t z + (1 - t) \epsilon) - (z - \epsilon) \right\|^2\right].
L CFM ( θ ) = E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ u t θ ( t z + ( 1 − t ) ϵ ) − ( z − ϵ ) 2 ] . 许多主流模型(如 Stable Diffusion 3、Meta 的 Movie Gen Video)均采用这种简洁有效的训练方式。
输入 :数据样本 z ∼ p data z \sim p_{\text{data}} z ∼ p data 、神经网络 u t θ u_t^\theta u t θ
对于每个迷你批次数据:从数据集中采样一个样本 z z z ; 从均匀分布 Unif [ 0 , 1 ] \text{Unif}[0,1] Unif [ 0 , 1 ] 中采样时间 t t t ; 从高斯分布 N ( 0 , I d ) \mathcal{N}(0, I_d) N ( 0 , I d ) 中采样噪声 ϵ \epsilon ϵ ; 构造中间样本 x = t z + ( 1 − t ) ϵ x = t z + (1 - t) \epsilon x = t z + ( 1 − t ) ϵ (通用情况:x ∼ p t ( ⋅ ∣ z ) x \sim p_t(\cdot | z) x ∼ p t ( ⋅ ∣ z ) ); 计算损失:L ( θ ) = ∥ u t θ ( x ) − ( z − ϵ ) ∥ 2 \mathcal{L}(\theta) = \left\| u_t^\theta(x) - (z - \epsilon) \right\|^2 L ( θ ) = u t θ ( x ) − ( z − ϵ ) 2 (通用情况:∥ u t θ ( x ) − u t target ( x ∣ z ) ∥ 2 \left\| u_t^\theta(x) - u_t^{\text{target}}(x | z) \right\|^2 u t θ ( x ) − u t target ( x ∣ z ) 2 ); 通过梯度下降更新模型参数 θ \theta θ 。 重复上述步骤直至训练收敛。 接下来将流匹配的训练思路扩展到 SDE。回顾第 3 章的结论,目标 ODE 可扩展为具有相同边际概率路径的 SDE:
d X t = [ u t target ( X t ) + σ t 2 2 ∇ log p t ( X t ) ] d t + σ t d W t , (48)
dX_t = \left[ u_t^{\text{target}}(X_t) + \frac{\sigma_t^2}{2} \nabla \log p_t(X_t) \right] dt + \sigma_t dW_t, \tag{48}
d X t = [ u t target ( X t ) + 2 σ t 2 ∇ log p t ( X t ) ] d t + σ t d W t , ( 48 )
X 0 ∼ p init , ⇒ X t ∼ p t ( 0 ≤ t ≤ 1 ) , (49, 50)
X_0 \sim p_{\text{init}}, \quad \Rightarrow X_t \sim p_t \quad (0 \leq t \leq 1), \tag{49, 50}
X 0 ∼ p init , ⇒ X t ∼ p t ( 0 ≤ t ≤ 1 ) , ( 49, 50 ) 其中 u t target u_t^{\text{target}} u t target 是边际向量场,∇ log p t ( x ) \nabla \log p_t(x) ∇ log p t ( x ) 是边际得分函数,其表达式为:
∇ log p t ( x ) = ∫ ∇ log p t ( x ∣ z ) p t ( x ∣ z ) p data ( z ) p t ( x ) d z . (51)
\nabla \log p_t(x) = \int \nabla \log p_t(x | z) \frac{p_t(x | z) p_{\text{data}}(z)}{p_t(x)} dz. \tag{51}
∇ log p t ( x ) = ∫ ∇ log p t ( x ∣ z ) p t ( x ) p t ( x ∣ z ) p data ( z ) d z . ( 51 ) 为逼近边际得分函数 ∇ log p t \nabla \log p_t ∇ log p t ,我们引入得分网络 s t θ : R d × [ 0 , 1 ] → R d s_t^\theta: \mathbb{R}^d \times [0,1] \to \mathbb{R}^d s t θ : R d × [ 0 , 1 ] → R d ,并类比流匹配的思路,设计得分匹配损失与条件得分匹配损失:
L S M ( θ ) = E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ ∥ s t θ ( x ) − ∇ log p t ( x ) ∥ 2 ] (得分匹配损失) ,
\mathcal{L}_{SM}(\theta) = \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[\left\| s_t^\theta(x) - \nabla \log p_t(x) \right\|^2\right] \quad \text{(得分匹配损失)},
L SM ( θ ) = E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ s t θ ( x ) − ∇ log p t ( x ) 2 ] (得分匹配损失) ,
L C S M ( θ ) = E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ ∥ s t θ ( x ) − ∇ log p t ( x ∣ z ) ∥ 2 ] (条件得分匹配损失) .
\mathcal{L}_{CSM}(\theta) = \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[\left\| s_t^\theta(x) - \nabla \log p_t(x | z) \right\|^2\right] \quad \text{(条件得分匹配损失)}.
L CSM ( θ ) = E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ s t θ ( x ) − ∇ log p t ( x ∣ z ) 2 ] (条件得分匹配损失) . 两者的核心差异在于:得分匹配损失使用难以计算的边际得分函数,而条件得分匹配损失使用可解析求解的条件得分函数 ∇ log p t ( x ∣ z ) \nabla \log p_t(x | z) ∇ log p t ( x ∣ z ) 。
得分匹配损失与条件得分匹配损失仅相差一个与参数 θ \theta θ 无关的常数:
L S M ( θ ) = L C S M ( θ ) + C ,
\mathcal{L}_{SM}(\theta) = \mathcal{L}_{CSM}(\theta) + C,
L SM ( θ ) = L CSM ( θ ) + C , 因此两者的梯度完全一致:
∇ θ L S M ( θ ) = ∇ θ L C S M ( θ ) .
\nabla_\theta \mathcal{L}_{SM}(\theta) = \nabla_\theta \mathcal{L}_{CSM}(\theta).
∇ θ L SM ( θ ) = ∇ θ L CSM ( θ ) . 特别地,若得分网络具有足够表达能力,其最小值点 θ ∗ \theta^* θ ∗ 会满足 s t θ ∗ = ∇ log p t s_t^{\theta^*} = \nabla \log p_t s t θ ∗ = ∇ log p t 。
由于边际得分函数 ∇ log p t ( x ) \nabla \log p_t(x) ∇ log p t ( x ) 的表达式(式 (51))与边际向量场 u t target ( x ) u_t^{\text{target}}(x) u t target ( x ) 的表达式(式 (43))形式完全一致,因此可直接复用定理 18 的证明逻辑,仅需将 u t target u_t^{\text{target}} u t target 替换为 ∇ log p t \nabla \log p_t ∇ log p t 即可完成证明。
上述流程即为扩散模型的基础训练方法。训练完成后,可选择任意扩散系数 σ t ≥ 0 \sigma_t \geq 0 σ t ≥ 0 ,通过模拟以下 SDE 生成样本 X 1 ∼ p data X_1 \sim p_{\text{data}} X 1 ∼ p data :
X 0 ∼ p init , d X t = [ u t θ ( X t ) + σ t 2 2 s t θ ( X t ) ] d t + σ t d W t . (52)
X_0 \sim p_{\text{init}}, \quad dX_t = \left[ u_t^\theta(X_t) + \frac{\sigma_t^2}{2} s_t^\theta(X_t) \right] dt + \sigma_t dW_t. \tag{52}
X 0 ∼ p init , d X t = [ u t θ ( X t ) + 2 σ t 2 s t θ ( X t ) ] d t + σ t d W t . ( 52 ) 理论上,在完美训练的情况下,任意 σ t \sigma_t σ t 都能生成符合目标分布的样本,但实际中会存在两类误差:
SDE 数值模拟带来的误差; 模型 u t θ u_t^\theta u t θ 与真实目标 u t target u_t^{\text{target}} u t target 之间的训练误差。 因此,最优扩散系数 σ t \sigma_t σ t 需通过实验验证确定[1, 12, 17]。值得注意的是,虽然扩散模型需要同时学习向量场 u t θ u_t^\theta u t θ 和得分网络 s t θ s_t^\theta s t θ ,但可将两者整合到一个网络中(输出两个分支),额外计算开销极小。更重要的是,对于高斯概率路径,向量场与得分函数可相互转换,无需单独训练。
如果你熟悉扩散模型,大概率接触过去噪扩散模型(Denoising Diffusion Models)——这类模型因应用广泛,如今常被直接称为“扩散模型”。在本文档的框架中,去噪扩散模型本质是采用高斯概率路径 p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d ) p_t(\cdot | z) = \mathcal{N}(\alpha_t z, \beta_t^2 I_d) p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d ) 的扩散模型。需要注意的是,早期去噪扩散模型的文献采用了不同的时间约定(时间反转),且通过“前向过程”(forward process)构建概率路径,后续 4.3 节将详细讨论这些差异。
针对高斯条件概率路径 p t ( x ∣ z ) = N ( α t z , β t 2 I d ) p_t(x | z) = \mathcal{N}(\alpha_t z, \beta_t^2 I_d) p t ( x ∣ z ) = N ( α t z , β t 2 I d ) ,第 3 章已推导其条件得分函数(式 (28)):
∇ log p t ( x ∣ z ) = − x − α t z β t 2 . (53)
\nabla \log p_t(x | z) = -\frac{x - \alpha_t z}{\beta_t^2}. \tag{53}
∇ log p t ( x ∣ z ) = − β t 2 x − α t z . ( 53 ) 将其代入条件得分匹配损失,可得:
L C S M ( θ ) = E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ ∥ s t θ ( x ) + x − α t z β t 2 ∥ 2 ] = ( i ) E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ ∥ s t θ ( α t z + β t ϵ ) + ϵ β t ∥ 2 ] = E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ 1 β t 2 ∥ β t s t θ ( α t z + β t ϵ ) + ϵ ∥ 2 ] ,
\begin{aligned}
\mathcal{L}_{CSM}(\theta) & = \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, x \sim p_t(\cdot | z)}\left[\left\| s_t^\theta(x) + \frac{x - \alpha_t z}{\beta_t^2} \right\|^2\right] \\
& \stackrel{(i)}{=} \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, \epsilon \sim \mathcal{N}(0, I_d)}\left[\left\| s_t^\theta(\alpha_t z + \beta_t \epsilon) + \frac{\epsilon}{\beta_t} \right\|^2\right] \\
& = \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, \epsilon \sim \mathcal{N}(0, I_d)}\left[\frac{1}{\beta_t^2} \left\| \beta_t s_t^\theta(\alpha_t z + \beta_t \epsilon) + \epsilon \right\|^2\right],
\end{aligned}
L CSM ( θ ) = E t ∼ Unif , z ∼ p data , x ∼ p t ( ⋅ ∣ z ) [ s t θ ( x ) + β t 2 x − α t z 2 ] = ( i ) E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ s t θ ( α t z + β t ϵ ) + β t ϵ 2 ] = E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ β t 2 1 β t s t θ ( α t z + β t ϵ ) + ϵ 2 ] , 步骤 (i) 代入了 x = α t z + β t ϵ x = \alpha_t z + \beta_t \epsilon x = α t z + β t ϵ 的采样形式。此时,得分网络 s t θ s_t^\theta s t θ 本质上是在学习预测污染数据样本 z z z 所使用的噪声 ϵ \epsilon ϵ ,因此该损失也被称为去噪得分匹配损失 ,是早期扩散模型的核心训练方法。
但实践发现,当 β t ≈ 0 \beta_t \approx 0 β t ≈ 0 时,上述损失会出现数值不稳定问题(即仅当添加足够噪声时,去噪得分匹配才有效)。因此,早期去噪扩散模型(如 Denoising Diffusion Probabilistic Models [9])提出移除损失中的 1 β t 2 \frac{1}{\beta_t^2} β t 2 1 项,并将得分网络 s t θ s_t^\theta s t θ 重新参数化为噪声预测网络 ϵ t θ : R d × [ 0 , 1 ] → R d \epsilon_t^\theta: \mathbb{R}^d \times [0,1] \to \mathbb{R}^d ϵ t θ : R d × [ 0 , 1 ] → R d ,满足:
− β t s t θ ( x ) = ϵ t θ ( x ) ⟹ L D D P M ( θ ) = E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ ∥ ϵ t θ ( α t z + β t ϵ ) − ϵ ∥ 2 ] .
-\beta_t s_t^\theta(x) = \epsilon_t^\theta(x) \implies \mathcal{L}_{DDPM}(\theta) = \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, \epsilon \sim \mathcal{N}(0, I_d)}\left[\left\| \epsilon_t^\theta(\alpha_t z + \beta_t \epsilon) - \epsilon \right\|^2\right].
− β t s t θ ( x ) = ϵ t θ ( x ) ⟹ L DD PM ( θ ) = E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ ϵ t θ ( α t z + β t ϵ ) − ϵ 2 ] . 此时,网络 ϵ t θ \epsilon_t^\theta ϵ t θ 直接学习预测污染样本所用的噪声 ϵ \epsilon ϵ ,该形式简洁且数值稳定,成为去噪扩散模型的标准训练目标。
输入 :数据样本 z ∼ p data z \sim p_{\text{data}} z ∼ p data 、得分网络 s t θ s_t^\theta s t θ 或噪声预测网络 ϵ t θ \epsilon_t^\theta ϵ t θ
对于每个迷你批次数据:从数据集中采样一个样本 z z z ; 从均匀分布 Unif [ 0 , 1 ] \text{Unif}[0,1] Unif [ 0 , 1 ] 中采样时间 t t t ; 从高斯分布 N ( 0 , I d ) \mathcal{N}(0, I_d) N ( 0 , I d ) 中采样噪声 ϵ \epsilon ϵ ; 构造中间样本 x t = α t z + β t ϵ x_t = \alpha_t z + \beta_t \epsilon x t = α t z + β t ϵ (通用情况:x t ∼ p t ( ⋅ ∣ z ) x_t \sim p_t(\cdot | z) x t ∼ p t ( ⋅ ∣ z ) ); 计算损失:L ( θ ) = ∥ s t θ ( x t ) + ϵ β t ∥ 2 \mathcal{L}(\theta) = \left\| s_t^\theta(x_t) + \frac{\epsilon}{\beta_t} \right\|^2 L ( θ ) = s t θ ( x t ) + β t ϵ 2 (通用情况:∥ s t θ ( x t ) − ∇ log p t ( x t ∣ z ) ∥ 2 \left\| s_t^\theta(x_t) - \nabla \log p_t(x_t | z) \right\|^2 s t θ ( x t ) − ∇ log p t ( x t ∣ z ) 2 );
或替代损失:L ( θ ) = ∥ ϵ t θ ( x t ) − ϵ ∥ 2 \mathcal{L}(\theta) = \left\| \epsilon_t^\theta(x_t) - \epsilon \right\|^2 L ( θ ) = ϵ t θ ( x t ) − ϵ 2 ; 通过梯度下降更新模型参数 θ \theta θ 。 重复上述步骤直至训练收敛。 对于高斯条件概率路径 p t ( x ∣ z ) = N ( α t z , β t 2 I d ) p_t(x | z) = \mathcal{N}(\alpha_t z, \beta_t^2 I_d) p t ( x ∣ z ) = N ( α t z , β t 2 I d ) ,条件(或边际)向量场与条件(或边际)得分函数可相互转换:
u t target ( x ∣ z ) = ( β t 2 α ˙ t α t − β ˙ t β t ) ∇ log p t ( x ∣ z ) + α ˙ t α t x ,
u_t^{\text{target}}(x | z) = \left( \beta_t^2 \frac{\dot{\alpha}_t}{\alpha_t} - \dot{\beta}_t \beta_t \right) \nabla \log p_t(x | z) + \frac{\dot{\alpha}_t}{\alpha_t} x,
u t target ( x ∣ z ) = ( β t 2 α t α ˙ t − β ˙ t β t ) ∇ log p t ( x ∣ z ) + α t α ˙ t x ,
u t target ( x ) = ( β t 2 α ˙ t α t − β ˙ t β t ) ∇ log p t ( x ) + α ˙ t α t x .
u_t^{\text{target}}(x) = \left( \beta_t^2 \frac{\dot{\alpha}_t}{\alpha_t} - \dot{\beta}_t \beta_t \right) \nabla \log p_t(x) + \frac{\dot{\alpha}_t}{\alpha_t} x.
u t target ( x ) = ( β t 2 α t α ˙ t − β ˙ t β t ) ∇ log p t ( x ) + α t α ˙ t x . 其中,边际向量场对应的 ODE 在文献中被称为概率流 ODE (probability flow ODE)。
以条件向量场和条件得分函数为例,通过代数变换可推导:
u t target ( x ∣ z ) = ( α ˙ t − β ˙ t β t α t ) z + β ˙ t β t x = ( i ) ( β t 2 α ˙ t α t − β ˙ t β t ) ( α t z − x β t 2 ) + α ˙ t α t x = ( β t 2 α ˙ t α t − β ˙ t β t ) ∇ log p t ( x ∣ z ) + α ˙ t α t x ,
u_t^{\text{target}}(x | z) = \left( \dot{\alpha}_t - \frac{\dot{\beta}_t}{\beta_t} \alpha_t \right) z + \frac{\dot{\beta}_t}{\beta_t} x \stackrel{(i)}{=} \left( \beta_t^2 \frac{\dot{\alpha}_t}{\alpha_t} - \dot{\beta}_t \beta_t \right) \left( \frac{\alpha_t z - x}{\beta_t^2} \right) + \frac{\dot{\alpha}_t}{\alpha_t} x = \left( \beta_t^2 \frac{\dot{\alpha}_t}{\alpha_t} - \dot{\beta}_t \beta_t \right) \nabla \log p_t(x | z) + \frac{\dot{\alpha}_t}{\alpha_t} x,
u t target ( x ∣ z ) = ( α ˙ t − β t β ˙ t α t ) z + β t β ˙ t x = ( i ) ( β t 2 α t α ˙ t − β ˙ t β t ) ( β t 2 α t z − x ) + α t α ˙ t x = ( β t 2 α t α ˙ t − β ˙ t β t ) ∇ log p t ( x ∣ z ) + α t α ˙ t x , 步骤 (i) 仅进行了代数整理。对边际向量场和边际得分函数,通过积分运算可证明同样的恒等式:
u t target ( x ) = ∫ u t target ( x ∣ z ) p t ( x ∣ z ) p data ( z ) p t ( x ) d z = ∫ [ ( β t 2 α ˙ t α t − β ˙ t β t ) ∇ log p t ( x ∣ z ) + α ˙ t α t x ] p t ( x ∣ z ) p data ( z ) p t ( x ) d z = ( i ) ( β t 2 α ˙ t α t − β ˙ t β t ) ∇ log p t ( x ) + α ˙ t α t x ,
\begin{aligned}
u_t^{\text{target}}(x) & = \int u_t^{\text{target}}(x | z) \frac{p_t(x | z) p_{\text{data}}(z)}{p_t(x)} dz \\
& = \int \left[ \left( \beta_t^2 \frac{\dot{\alpha}_t}{\alpha_t} - \dot{\beta}_t \beta_t \right) \nabla \log p_t(x | z) + \frac{\dot{\alpha}_t}{\alpha_t} x \right] \frac{p_t(x | z) p_{\text{data}}(z)}{p_t(x)} dz \\
& \stackrel{(i)}{=} \left( \beta_t^2 \frac{\dot{\alpha}_t}{\alpha_t} - \dot{\beta}_t \beta_t \right) \nabla \log p_t(x) + \frac{\dot{\alpha}_t}{\alpha_t} x,
\end{aligned}
u t target ( x ) = ∫ u t target ( x ∣ z ) p t ( x ) p t ( x ∣ z ) p data ( z ) d z = ∫ [ ( β t 2 α t α ˙ t − β ˙ t β t ) ∇ log p t ( x ∣ z ) + α t α ˙ t x ] p t ( x ) p t ( x ∣ z ) p data ( z ) d z = ( i ) ( β t 2 α t α ˙ t − β ˙ t β t ) ∇ log p t ( x ) + α t α ˙ t x , 步骤 (i) 利用了式 (51) 中边际得分函数的定义。
基于上述转换公式,可将得分网络 s t θ s_t^\theta s t θ 与向量场网络 u t θ u_t^\theta u t θ 相互参数化:
u t θ ( x ) = ( β t 2 α ˙ t α t − β ˙ t β t ) s t θ ( x ) + α ˙ t α t x . (54)
u_t^\theta(x) = \left( \beta_t^2 \frac{\dot{\alpha}_t}{\alpha_t} - \dot{\beta}_t \beta_t \right) s_t^\theta(x) + \frac{\dot{\alpha}_t}{\alpha_t} x. \tag{54}
u t θ ( x ) = ( β t 2 α t α ˙ t − β ˙ t β t ) s t θ ( x ) + α t α ˙ t x . ( 54 ) 同理,只要 β t 2 α ˙ t − α t β ˙ t β t ≠ 0 \beta_t^2 \dot{\alpha}_t - \alpha_t \dot{\beta}_t \beta_t \neq 0 β t 2 α ˙ t − α t β ˙ t β t = 0 (对 t ∈ [ 0 , 1 ) t \in [0,1) t ∈ [ 0 , 1 ) 恒成立),可得:
s t θ ( x ) = α t u t θ ( x ) − α ˙ t x β t 2 α ˙ t − α t β ˙ t β t . (55)
s_t^\theta(x) = \frac{\alpha_t u_t^\theta(x) - \dot{\alpha}_t x}{\beta_t^2 \dot{\alpha}_t - \alpha_t \dot{\beta}_t \beta_t}. \tag{55}
s t θ ( x ) = β t 2 α ˙ t − α t β ˙ t β t α t u t θ ( x ) − α ˙ t x . ( 55 ) 这一参数化表明,去噪得分匹配损失与条件流匹配损失仅相差一个常数,因此无需同时训练得分网络和向量场网络——掌握其中一个,即可通过公式推导得到另一个。图 10 直观对比了通过得分匹配直接学习的得分场,与通过向量场参数化得到的得分场,两者高度一致。
若已训练好得分网络 s t θ s_t^\theta s t θ ,可通过以下 SDE 生成样本 X 1 ∼ p data X_1 \sim p_{\text{data}} X 1 ∼ p data (存在训练误差和模拟误差):
X 0 ∼ p init , d X t = [ ( β t 2 α ˙ t α t − β ˙ t β t + σ t 2 2 ) s t θ ( x ) + α ˙ t α t x ] d t + σ t d W t , (56)
X_0 \sim p_{\text{init}}, \quad dX_t = \left[ \left( \beta_t^2 \frac{\dot{\alpha}_t}{\alpha_t} - \dot{\beta}_t \beta_t + \frac{\sigma_t^2}{2} \right) s_t^\theta(x) + \frac{\dot{\alpha}_t}{\alpha_t} x \right] dt + \sigma_t dW_t, \tag{56}
X 0 ∼ p init , d X t = [ ( β t 2 α t α ˙ t − β ˙ t β t + 2 σ t 2 ) s t θ ( x ) + α t α ˙ t x ] d t + σ t d W t , ( 56 ) 这一过程即为去噪扩散模型的随机采样。
围绕扩散模型和流匹配,学术界存在一系列相关框架。不同文献的表述方式可能不同(但核心等价),这给阅读带来了一定困惑。本节将梳理这些框架的差异、历史背景,帮助读者更好地理解相关文献(本节内容不影响对后续章节的理解,仅作为文献阅读参考)。
早期去噪扩散模型文献[28, 29, 9]并未使用 SDE,而是基于离散时间步 t = 0 , 1 , 2 , … t=0,1,2,\dots t = 0 , 1 , 2 , … 构建马尔可夫链。这种离散时间形式虽简洁直观,但存在两个缺点:
训练前需固定时间离散化方式; 损失函数需通过证据下界(ELBO)近似,而 ELBO 只是我们真正想要最小化的损失的下界。 后来,Song 等人[32]证明,这些离散时间构造本质上是连续时间 SDE 的近似;且在连续时间下,ELBO 损失会变得“紧致”(即不再是下界,而是与真实损失相等)——这使得 SDE 构造因数学上更“干净”,且能通过 ODE/SDE 采样器控制模拟误差,逐渐成为主流。需注意的是,两种形式采用的损失本质相同,并非根本性差异。
早期去噪扩散模型[28, 29, 9, 32]并未使用“概率路径”这一术语,而是通过“前向过程”构造数据的加噪流程。前向过程是一种 SDE,形式为:
X ˉ 0 = z , d X ˉ t = u t forw ( X ˉ t ) d t + σ t forw d W ˉ t , (57)
\bar{X}_0 = z, \quad d\bar{X}_t = u_t^{\text{forw}}(\bar{X}_t) dt + \sigma_t^{\text{forw}} d\bar{W}_t, \tag{57}
X ˉ 0 = z , d X ˉ t = u t forw ( X ˉ t ) d t + σ t forw d W ˉ t , ( 57 ) 其核心思想是:从数据点 z ∼ p data z \sim p_{\text{data}} z ∼ p data 出发,通过模拟前向过程对数据加噪,使得当 t → ∞ t \to \infty t → ∞ 时,X ˉ t \bar{X}_t X ˉ t 的分布收敛到高斯分布 N ( 0 , I d ) \mathcal{N}(0, I_d) N ( 0 , I d ) (即当 T ≫ 0 T \gg 0 T ≫ 0 时,X ˉ T ≈ N ( 0 , I d ) \bar{X}_T \approx \mathcal{N}(0, I_d) X ˉ T ≈ N ( 0 , I d ) )。
前向过程本质上对应一种概率路径:给定 X ˉ 0 = z \bar{X}_0 = z X ˉ 0 = z 时,X ˉ t \bar{X}_t X ˉ t 的条件分布是条件概率路径 p ˉ t ( ⋅ ∣ z ) \bar{p}_t(\cdot | z) p ˉ t ( ⋅ ∣ z ) ;对 z ∼ p data z \sim p_{\text{data}} z ∼ p data 边缘化后,X ˉ t \bar{X}_t X ˉ t 的分布是边际概率路径 p ˉ t \bar{p}_t p ˉ t 。但需注意:
扩散模型的“前向过程”从未被实际模拟(训练时仅需从 p ˉ t ( ⋅ ∣ z ) \bar{p}_t(\cdot | z) p ˉ t ( ⋅ ∣ z ) 中采样); 前向过程需在 t → ∞ t \to \infty t → ∞ 时才收敛到先验分布 p init p_{\text{init}} p init ,无法在有限时间内到达。 而“概率路径”这一术语由流匹配[14]提出,其优势在于:简化构造过程的同时,具备更强的通用性——无需依赖前向过程,且能在有限时间内完成从 p init p_{\text{init}} p init 到 p data p_{\text{data}} p data 的插值。此外,前向过程的向量场 u t forw u_t^{\text{forw}} u t forw 需满足“条件分布 X ˉ t ∣ X ˉ 0 = z \bar{X}_t | \bar{X}_0 = z X ˉ t ∣ X ˉ 0 = z 可解析求解”,这限制了其只能采用仿射形式 u t forw ( x ) = a t x u_t^{\text{forw}}(x) = a_t x u t forw ( x ) = a t x (对应高斯概率路径);而概率路径则无此限制。
早期扩散模型并未通过福克-普朗克方程(或连续性方程)构造训练目标 u t target u_t^{\text{target}} u t target 或 ∇ log p t \nabla \log p_t ∇ log p t ,而是通过前向过程的时间反转[2]。时间反转 ( X t ) 0 ≤ t ≤ T (X_t)_{0 \leq t \leq T} ( X t ) 0 ≤ t ≤ T 是一种 SDE,其轨迹的时间反转后分布与原分布相同,即:
P [ X t 1 ∈ A 1 , . . . , X t n ∈ A n ] = P [ X T − t 1 ∈ A 1 , . . . , X T − t n ∈ A n ]
\mathbb{P}\left[X_{t_1} \in A_1, ..., X_{t_n} \in A_n\right] = \mathbb{P}\left[X_{T - t_1} \in A_1, ..., X_{T - t_n} \in A_n\right]
P [ X t 1 ∈ A 1 , ... , X t n ∈ A n ] = P [ X T − t 1 ∈ A 1 , ... , X T − t n ∈ A n ] 对所有 0 ≤ t 1 , . . . , t n ≤ T 0 \leq t_1, ..., t_n \leq T 0 ≤ t 1 , ... , t n ≤ T 和 A 1 , . . . , A n ⊂ S A_1, ..., A_n \subset S A 1 , ... , A n ⊂ S 成立[59]。
根据 Anderson[2]的研究,满足上述条件的时间反转 SDE 为:
d X t = [ − u t ( X t ) + σ t 2 ∇ log p t ( X t ) ] d t + σ t d W t , u t ( x ) = u T − t forw ( x ) , σ t = σ ˉ T − t .
dX_t = \left[ -u_t(X_t) + \sigma_t^2 \nabla \log p_t(X_t) \right] dt + \sigma_t dW_t, \quad u_t(x) = u_{T - t}^{\text{forw}}(x), \quad \sigma_t = \bar{\sigma}_{T - t}.
d X t = [ − u t ( X t ) + σ t 2 ∇ log p t ( X t ) ] d t + σ t d W t , u t ( x ) = u T − t forw ( x ) , σ t = σ ˉ T − t . 由于 u t ( X t ) = a t X t u_t(X_t) = a_t X_t u t ( X t ) = a t X t ,该形式本质上是命题 1 中训练目标的特例(需注意时间约定的差异,具体推导见[15])。但对于生成建模而言,我们通常仅关注马尔可夫过程的终点 X 1 X_1 X 1 (如生成的图像),因此“是否为真实时间反转”对许多应用而言并不重要;且时间反转往往导致次优结果(例如概率流 ODE 通常表现更优[12, 17])。如今,除时间反转外,所有扩散模型的采样方法均依赖福克-普朗克方程——这也是当前学术界更倾向于直接通过福克-普朗克方程构造训练目标的原因(该方法由[14, 16, 1]开创,与本章采用的思路一致)。
本文档介绍的框架与流匹配和随机插值器(Stochastic Interpolants, SIs)最为接近:
流匹配仅聚焦于流模型(ODE),其核心创新是证明:无需通过前向过程和 SDE,仅流模型即可实现大规模训练;需注意的是,流匹配模型的采样是确定性的(仅初始状态 X 0 ∼ p init X_0 \sim p_{\text{init}} X 0 ∼ p init 具有随机性)。 随机插值器则同时包含纯流模型和基于朗之万动力学(Langevin dynamics)的 SDE 扩展(即本章定理 13 的形式),其名称源于“插值函数 I ( t , x , z ) I(t, x, z) I ( t , x , z ) ”——该函数用于在两个分布之间插值,对应本文档中“条件概率路径与边际概率路径”的构造(形式略有不同,但核心等价)。 与扩散模型相比,流匹配和随机插值器的优势在于简洁性与通用性:训练框架简单,且能实现任意先验分布 p init p_{\text{init}} p init 到任意数据分布 p data p_{\text{data}} p data 的转换;而去噪扩散模型仅适用于高斯先验分布和高斯概率路径——这为生成建模开辟了新的可能性。
流匹配的核心是:通过最小化条件流匹配损失训练神经网络 u t θ u_t^\theta u t θ ,损失形式为:
L C F M ( θ ) = E z ∼ p data , t ∼ Unif , x ∼ p t ( ⋅ ∣ z ) [ ∥ u t θ ( x ) − u t target ( x ∣ z ) ∥ 2 ] , (60)
\mathcal{L}_{CFM}(\theta) = \mathbb{E}_{z \sim p_{\text{data}}, t \sim \text{Unif}, x \sim p_t(\cdot | z)}\left[\left\| u_t^\theta(x) - u_t^{\text{target}}(x | z) \right\|^2\right], \tag{60}
L CFM ( θ ) = E z ∼ p data , t ∼ Unif , x ∼ p t ( ⋅ ∣ z ) [ u t θ ( x ) − u t target ( x ∣ z ) 2 ] , ( 60 ) 训练完成后,通过模拟 ODE 生成样本(见算法 1)。
扩散模型的扩展:引入得分网络 s t θ s_t^\theta s t θ ,通过条件得分匹配损失训练,损失形式为:
L C S M ( θ ) = E z ∼ p data , t ∼ Unif , x ∼ p t ( ⋅ ∣ z ) [ ∥ s t θ ( x ) − ∇ log p t ( x ∣ z ) ∥ 2 ] , (61)
\mathcal{L}_{CSM}(\theta) = \mathbb{E}_{z \sim p_{\text{data}}, t \sim \text{Unif}, x \sim p_t(\cdot | z)}\left[\left\| s_t^\theta(x) - \nabla \log p_t(x | z) \right\|^2\right], \tag{61}
L CSM ( θ ) = E z ∼ p data , t ∼ Unif , x ∼ p t ( ⋅ ∣ z ) [ s t θ ( x ) − ∇ log p t ( x ∣ z ) 2 ] , ( 61 ) 对任意扩散系数 σ t ≥ 0 \sigma_t \geq 0 σ t ≥ 0 ,模拟 SDE(见算法 2)即可生成近似样本 X 1 ∼ p data X_1 \sim p_{\text{data}} X 1 ∼ p data ,最优 σ t \sigma_t σ t 需通过实验确定。
高斯概率路径特例:此时条件得分匹配也被称为去噪得分匹配,两类损失具体为:
L C F M ( θ ) = E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ ∥ u t θ ( α t z + β t ϵ ) − ( α ˙ t z + β ˙ t ϵ ) ∥ 2 ] ,
\mathcal{L}_{CFM}(\theta) = \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, \epsilon \sim \mathcal{N}(0, I_d)}\left[\left\| u_t^\theta(\alpha_t z + \beta_t \epsilon) - (\dot{\alpha}_t z + \dot{\beta}_t \epsilon) \right\|^2\right],
L CFM ( θ ) = E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ u t θ ( α t z + β t ϵ ) − ( α ˙ t z + β ˙ t ϵ ) 2 ] ,
L C S M ( θ ) = E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ ∥ s t θ ( α t z + β t ϵ ) + ϵ β t ∥ 2 ] .
\mathcal{L}_{CSM}(\theta) = \mathbb{E}_{t \sim \text{Unif}, z \sim p_{\text{data}}, \epsilon \sim \mathcal{N}(0, I_d)}\left[\left\| s_t^\theta(\alpha_t z + \beta_t \epsilon) + \frac{\epsilon}{\beta_t} \right\|^2\right].
L CSM ( θ ) = E t ∼ Unif , z ∼ p data , ϵ ∼ N ( 0 , I d ) [ s t θ ( α t z + β t ϵ ) + β t ϵ 2 ] . 该场景下,向量场与得分函数可通过以下公式相互转换,无需单独训练:
u t θ ( x ) = ( β t 2 α ˙ t α t − β ˙ t β t ) s t θ ( x ) + α ˙ t α t x .
u_t^\theta(x) = \left( \beta_t^2 \frac{\dot{\alpha}_t}{\alpha_t} - \dot{\beta}_t \beta_t \right) s_t^\theta(x) + \frac{\dot{\alpha}_t}{\alpha_t} x.
u t θ ( x ) = ( β t 2 α t α ˙ t − β ˙ t β t ) s t θ ( x ) + α t α ˙ t x . 去噪扩散模型:本质是采用高斯概率路径的扩散模型,仅需学习 u t θ u_t^\theta u t θ 或 s t θ s_t^\theta s t θ 之一(可相互转换);其采样可选择确定性的概率流 ODE 或随机性的 SDE 采样;但与流匹配/随机插值器不同,去噪扩散模型仅适用于高斯先验分布和高斯概率路径。
离散时间形式:通过离散时间马尔可夫链近似 SDE; 时间反转约定:将 t = 0 t=0 t = 0 对应数据分布 p data p_{\text{data}} p data (与本文档 t = 0 t=0 t = 0 对应先验分布 p init p_{\text{init}} p init 相反); 前向过程:通过加噪过程构造高斯概率路径; 基于时间反转的训练目标:通过 SDE 的时间反转构造训练目标(本质是本文档构造的特例,需调整时间约定)。 在前几章中,我们已经学习了如何训练流匹配模型或扩散模型以从数据分布 p data ( x ) p_{\text{data}}(x) p data ( x ) 中采样。这套方法具有通用性,可应用于多种数据类型和场景。本章将聚焦如何将该框架应用于构建图像或视频生成器(例如 Stable Diffusion 3 和 Meta 的 Movie Gen Video)。要实现这一目标,我们还需补充两个核心要素:一是条件生成(引导)的形式化定义,即如何生成符合特定文本提示的图像,以及如何调整现有目标函数以适配该任务(将重点介绍提升条件生成质量的主流技术——无分类器引导);二是适用于图像和视频的常见神经网络架构。最后,我们将深入剖析上述两款最先进的图像和视频生成模型,让你了解大规模生成模型的实际构建方式。
到目前为止,我们讨论的生成模型均为无条件生成模型——例如图像生成模型会随机生成一张图像。但实际应用中,我们往往需要生成符合特定附加信息的对象。例如,输入文本提示 y = y= y = “一只在积雪覆盖的山坡上奔跑、背景有山脉的狗”,生成对应的图像 x x x 。对于固定提示 y y y ,我们的目标是从条件数据分布 p data ( x ∣ y ) p_{\text{data}}(x | y) p data ( x ∣ y ) 中采样。形式上,引导变量 y y y 存在于特定空间 Y \mathcal{Y} Y :若 y y y 是文本提示,通常对应连续空间(如 R d y \mathbb{R}^{d_y} R d y );若 y y y 是离散类别标签,则对应离散空间。在实验部分,我们将使用 MNIST 数据集,此时 Y = { 0 , 1 , . . . , 9 } Y=\{0,1,...,9\} Y = { 0 , 1 , ... , 9 } 对应手写数字的类别。
为避免与“基于 z ∼ p data z \sim p_{\text{data}} z ∼ p data 的条件化(条件概率路径/条件向量场)”在术语上混淆,我们专门使用“引导(guided)”一词指代基于 y y y 的条件化。
本笔记中,“引导(guided)”特指基于 y y y 的条件化,例如引导向量场 u t target ( x ∣ y ) u_t^{\text{target}}(x | y) u t target ( x ∣ y ) ;而“条件(conditional)”仍用于描述基于 z ∼ p data z \sim p_{\text{data}} z ∼ p data 的条件化,例如条件向量场 u t target ( x ∣ z ) u_t^{\text{target}}(x | z) u t target ( x ∣ z ) 。该术语用法与其他相关研究一致[15]。
引导式生成建模的核心目标是:能够从任意 y y y 对应的条件分布 p data ( x ∣ y ) p_{\text{data}}(x | y) p data ( x ∣ y ) 中采样。结合流匹配和得分匹配的框架(生成模型通过模拟常微分方程/随机微分方程实现),可将引导式扩散模型定义如下:
引导式扩散模型由引导向量场 u t θ ( ⋅ ∣ y ) u_t^\theta(\cdot | y) u t θ ( ⋅ ∣ y ) (通过神经网络参数化)和时变扩散系数 σ t \sigma_t σ t 组成,具体形式为:
神经网络:u θ : R d × Y × [ 0 , 1 ] → R d u^\theta: \mathbb{R}^d \times \mathcal{Y} \times [0,1] \to \mathbb{R}^d u θ : R d × Y × [ 0 , 1 ] → R d ,即 ( x , y , t ) ↦ u t θ ( x ∣ y ) (x, y, t) \mapsto u_t^\theta(x | y) ( x , y , t ) ↦ u t θ ( x ∣ y ) (含参数 θ \theta θ ) 固定扩散系数:σ t : [ 0 , 1 ] → [ 0 , ∞ ) \sigma_t: [0,1] \to [0, \infty) σ t : [ 0 , 1 ] → [ 0 , ∞ ) ,即 t ↦ σ t t \mapsto \sigma_t t ↦ σ t 与总结 7 相比,核心差异是神经网络额外引入了引导变量 y ∈ Y y \in \mathcal{Y} y ∈ Y 。对于任意 y ∈ R d y y \in \mathbb{R}^{d_y} y ∈ R d y ,从该模型中生成样本的流程如下:
初始化:X 0 ∼ p init X_0 \sim p_{\text{init}} X 0 ∼ p init (从简单分布如高斯分布中采样初始状态) SDE 模拟:d X t = u t θ ( X t ∣ y ) d t + σ t d W t dX_t = u_t^\theta(X_t | y) dt + \sigma_t dW_t d X t = u t θ ( X t ∣ y ) d t + σ t d W t (从 t = 0 t=0 t = 0 到 t = 1 t=1 t = 1 模拟 SDE) 目标:X 1 ∼ p data ( ⋅ ∣ y ) X_1 \sim p_{\text{data}}(\cdot | y) X 1 ∼ p data ( ⋅ ∣ y ) (使轨迹终点服从条件数据分布) 当 σ t = 0 \sigma_t = 0 σ t = 0 时,该模型称为引导式流模型 。
若固定引导变量 y y y ,并将数据分布视为 p data ( x ∣ y ) p_{\text{data}}(x | y) p data ( x ∣ y ) ,则可复用无条件生成的框架,通过条件流匹配目标构建生成模型:
E z ∼ p data ( ⋅ ∣ y ) , x ∼ p t ( ⋅ ∣ z ) ∥ u t θ ( x ∣ y ) − u t target ( x ∣ z ) ∥ 2 (63)
\mathbb{E}_{z \sim p_{\text{data}}(\cdot | y), x \sim p_t(\cdot | z)} \left\| u_t^\theta(x | y) - u_t^{\text{target}}(x | z) \right\|^2 \tag{63}
E z ∼ p data ( ⋅ ∣ y ) , x ∼ p t ( ⋅ ∣ z ) u t θ ( x ∣ y ) − u t target ( x ∣ z ) 2 ( 63 ) 需要注意的是,标签 y y y 不会影响条件概率路径 p t ( ⋅ ∣ z ) p_t(\cdot | z) p t ( ⋅ ∣ z ) 或条件向量场 u t target ( x ∣ z ) u_t^{\text{target}}(x | z) u t target ( x ∣ z ) (原则上可设计为依赖,但此处无需)。将期望扩展到所有 y y y 和时间 t ∈ Unif [ 0 , 1 ) t \in \text{Unif}[0,1) t ∈ Unif [ 0 , 1 ) ,可得到引导式条件流匹配目标 :
L CFM guided ( θ ) = E ( z , y ) ∼ p data ( z , y ) , t ∼ Unif [ 0 , 1 ) , x ∼ p t ( ⋅ ∣ z ) ∥ u t θ ( x ∣ y ) − u t target ( x ∣ z ) ∥ 2
\mathcal{L}_{\text{CFM}}^{\text{guided}}(\theta) = \mathbb{E}_{(z, y) \sim p_{\text{data}}(z, y), t \sim \text{Unif}[0,1), x \sim p_t(\cdot | z)} \left\| u_t^\theta(x | y) - u_t^{\text{target}}(x | z) \right\|^2
L CFM guided ( θ ) = E ( z , y ) ∼ p data ( z , y ) , t ∼ Unif [ 0 , 1 ) , x ∼ p t ( ⋅ ∣ z ) u t θ ( x ∣ y ) − u t target ( x ∣ z ) 2 该目标与无条件流匹配目标(式 (44))的核心差异是:采样对象从 z ∼ p data z \sim p_{\text{data}} z ∼ p data 变为 ( z , y ) ∼ p data (z, y) \sim p_{\text{data}} ( z , y ) ∼ p data (即数据分布变为图像 z z z 与文本提示 y y y 的联合分布)。在实际实现中(如 PyTorch),这意味着数据加载器(dataloader)需返回包含 z z z 和 y y y 的批次数据。通过该目标训练的模型,能够忠实生成符合 p data ( ⋅ ∣ y ) p_{\text{data}}(\cdot | y) p data ( ⋅ ∣ y ) 的样本。
上述条件训练方法在理论上成立,但实验发现,生成的图像与目标标签 y y y 的契合度往往不足。研究人员发现,通过人工增强引导变量 y y y 的影响,可显著提升生成结果的感知质量——这一洞察最终形成了无分类器引导(CFG)技术,该技术已被广泛应用于最先进的扩散模型中。为简化说明,我们以高斯条件概率路径为例展开。回顾式 (16),高斯条件概率路径的形式为:
p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d )
p_t(\cdot | z) = \mathcal{N}(\alpha_t z, \beta_t^2 I_d)
p t ( ⋅ ∣ z ) = N ( α t z , β t 2 I d ) 其中噪声调度器 α t \alpha_t α t 和 β t \beta_t β t 满足连续可微、单调,且 α 0 = β 1 = 0 \alpha_0 = \beta_1 = 0 α 0 = β 1 = 0 、α 1 = β 0 = 1 \alpha_1 = \beta_0 = 1 α 1 = β 0 = 1 。结合命题 1,可利用引导得分函数 ∇ log p t ( x ∣ y ) \nabla \log p_t(x | y) ∇ log p t ( x ∣ y ) ,将引导向量场 u t target ( x ∣ y ) u_t^{\text{target}}(x | y) u t target ( x ∣ y ) 重写为:
u t target ( x ∣ y ) = a t x + b t ∇ log p t ( x ∣ y ) (65)
u_t^{\text{target}}(x | y) = a_t x + b_t \nabla \log p_t(x | y) \tag{65}
u t target ( x ∣ y ) = a t x + b t ∇ log p t ( x ∣ y ) ( 65 ) 其中:
( a t , b t ) = ( α ˙ t α t , α ˙ t β t 2 − β ˙ t β t α t α t ) (66)
(a_t, b_t) = \left( \frac{\dot{\alpha}_t}{\alpha_t}, \frac{\dot{\alpha}_t \beta_t^2 - \dot{\beta}_t \beta_t \alpha_t}{\alpha_t} \right) \tag{66}
( a t , b t ) = ( α t α ˙ t , α t α ˙ t β t 2 − β ˙ t β t α t ) ( 66 ) 根据贝叶斯法则,引导得分函数可分解为:
∇ log p t ( x ∣ y ) = ∇ log ( p t ( x ) p t ( y ∣ x ) p t ( y ) ) = ∇ log p t ( x ) + ∇ log p t ( y ∣ x )
\nabla \log p_t(x | y) = \nabla \log \left( \frac{p_t(x) p_t(y | x)}{p_t(y)} \right) = \nabla \log p_t(x) + \nabla \log p_t(y | x)
∇ log p t ( x ∣ y ) = ∇ log ( p t ( y ) p t ( x ) p t ( y ∣ x ) ) = ∇ log p t ( x ) + ∇ log p t ( y ∣ x ) 其中梯度 ∇ \nabla ∇ 针对变量 x x x 计算,因此 ∇ log p t ( y ) = 0 \nabla \log p_t(y) = 0 ∇ log p t ( y ) = 0 。将其代入式 (65),可得:
u t target ( x ∣ y ) = a t x + b t ( ∇ log p t ( x ) + ∇ log p t ( y ∣ x ) ) = u t target ( x ) + b t ∇ log p t ( y ∣ x )
u_t^{\text{target}}(x | y) = a_t x + b_t \left( \nabla \log p_t(x) + \nabla \log p_t(y | x) \right) = u_t^{\text{target}}(x) + b_t \nabla \log p_t(y | x)
u t target ( x ∣ y ) = a t x + b t ( ∇ log p t ( x ) + ∇ log p t ( y ∣ x ) ) = u t target ( x ) + b t ∇ log p t ( y ∣ x ) 该式表明:引导向量场 u t target ( x ∣ y ) u_t^{\text{target}}(x | y) u t target ( x ∣ y ) 是无条件向量场与引导得分项 ∇ log p t ( y ∣ x ) \nabla \log p_t(y | x) ∇ log p t ( y ∣ x ) 的叠加。由于生成图像与提示 y y y 的契合度不足,自然的改进思路是放大 ∇ log p t ( y ∣ x ) \nabla \log p_t(y | x) ∇ log p t ( y ∣ x ) 项的贡献,得到:
u ~ t ( x ∣ y ) = u t target ( x ) + w b t ∇ log p t ( y ∣ x )
\tilde{u}_t(x | y) = u_t^{\text{target}}(x) + w b_t \nabla \log p_t(y | x)
u ~ t ( x ∣ y ) = u t target ( x ) + w b t ∇ log p t ( y ∣ x ) 其中 w > 1 w > 1 w > 1 称为引导尺度(guidance scale) 。需要注意的是,这是一种启发式方法:当 w ≠ 1 w \neq 1 w = 1 时,u ~ t ( x ∣ y ) ≠ u t target ( x ∣ y ) \tilde{u}_t(x | y) \neq u_t^{\text{target}}(x | y) u ~ t ( x ∣ y ) = u t target ( x ∣ y ) (即不再是真实的引导向量场),但实验表明,w > 1 w > 1 w > 1 时能得到更符合预期的生成结果。
项 log p t ( y ∣ x ) \log p_t(y | x) log p t ( y ∣ x ) 可视为带噪声数据的“分类器”(即给定带噪声数据 x x x ,输出标签 y y y 的似然)。早期扩散模型研究中,确实通过训练独立分类器实现引导(称为分类器引导[5, 30]),但目前该方法已基本被无分类器引导取代,因此本笔记不再展开。
再次利用得分分解公式:
∇ log p t ( x ∣ y ) = ∇ log p t ( x ) + ∇ log p t ( y ∣ x )
\nabla \log p_t(x | y) = \nabla \log p_t(x) + \nabla \log p_t(y | x)
∇ log p t ( x ∣ y ) = ∇ log p t ( x ) + ∇ log p t ( y ∣ x ) 可将缩放后的引导向量场重写为:
u ~ t ( x ∣ y ) = u t target ( x ) + w b t ∇ log p t ( y ∣ x ) = u t target ( x ) + w b t ( ∇ log p t ( x ∣ y ) − ∇ log p t ( x ) ) = u t target ( x ) − ( w a t x + w b t ∇ log p t ( x ) ) + ( w a t x + w b t ∇ log p t ( x ∣ y ) ) = ( 1 − w ) u t target ( x ) + w u t target ( x ∣ y )
\begin{aligned}
\tilde{u}_t(x | y) & = u_t^{\text{target}}(x) + w b_t \nabla \log p_t(y | x) \\
& = u_t^{\text{target}}(x) + w b_t \left( \nabla \log p_t(x | y) - \nabla \log p_t(x) \right) \\
& = u_t^{\text{target}}(x) - \left( w a_t x + w b_t \nabla \log p_t(x) \right) + \left( w a_t x + w b_t \nabla \log p_t(x | y) \right) \\
& = (1 - w) u_t^{\text{target}}(x) + w u_t^{\text{target}}(x | y)
\end{aligned}
u ~ t ( x ∣ y ) = u t target ( x ) + w b t ∇ log p t ( y ∣ x ) = u t target ( x ) + w b t ( ∇ log p t ( x ∣ y ) − ∇ log p t ( x ) ) = u t target ( x ) − ( w a t x + w b t ∇ log p t ( x ) ) + ( w a t x + w b t ∇ log p t ( x ∣ y ) ) = ( 1 − w ) u t target ( x ) + w u t target ( x ∣ y ) 可见,缩放后的引导向量场 u ~ t ( x ∣ y ) \tilde{u}_t(x | y) u ~ t ( x ∣ y ) 是无条件向量场 u t target ( x ) u_t^{\text{target}}(x) u t target ( x ) 与引导向量场 u t target ( x ∣ y ) u_t^{\text{target}}(x | y) u t target ( x ∣ y ) 的线性组合。理论上,可分别训练无条件模型(使用式 (44))和引导模型(使用式 (64)),再在推理时组合两者得到 u ~ t ( x ∣ y ) \tilde{u}_t(x | y) u ~ t ( x ∣ y ) ——但这需要训练两个独立模型,成本较高。实际解决方案是:在标签集中新增一个“无引导”标签 ∅ \emptyset ∅ ,将无条件向量场 u t target ( x ) u_t^{\text{target}}(x) u t target ( x ) 视为 u t target ( x ∣ ∅ ) u_t^{\text{target}}(x | \emptyset) u t target ( x ∣∅ ) ,从而在单个模型中同时训练无条件和引导两种模式。这种“单模型训练、推理时增强引导权重”的方法,即为无分类器引导(CFG) [10]。
上述线性组合构造 u ~ t ( x ∣ y ) = ( 1 − w ) u t target ( x ) + w u t target ( x ∣ y ) \tilde{u}_t(x | y) = (1 - w) u_t^{\text{target}}(x) + w u_t^{\text{target}}(x | y) u ~ t ( x ∣ y ) = ( 1 − w ) u t target ( x ) + w u t target ( x ∣ y ) 适用于任意概率路径,而非仅高斯路径。当 w = 1 w=1 w = 1 时,显然 u ~ t ( x ∣ y ) = u t target ( x ∣ y ) \tilde{u}_t(x | y) = u_t^{\text{target}}(x | y) u ~ t ( x ∣ y ) = u t target ( x ∣ y ) ;本笔记通过高斯路径推导,仅为直观说明“放大分类器项贡献”的核心思路。
为适配“无引导标签 ∅ \emptyset ∅ ”,需修改引导式条件流匹配目标(式 (64))。由于采样 ( z , y ) ∼ p data (z, y) \sim p_{\text{data}} ( z , y ) ∼ p data 时无法自然获得 y = ∅ y = \emptyset y = ∅ ,需人工引入该情况:定义超参数 η \eta η 为“丢弃原始标签 y y y 并替换为 ∅ \emptyset ∅ ”的概率,最终得到无分类器引导的条件流匹配目标(CFG-CFM) :
L CFM CFG ( θ ) = E □ ∥ u t θ ( x ∣ y ) − u t target ( x ∣ z ) ∥ 2 (68)
\mathcal{L}_{\text{CFM}}^{\text{CFG}}(\theta) = \mathbb{E}_{\square} \left\| u_t^\theta(x | y) - u_t^{\text{target}}(x | z) \right\|^2 \tag{68}
L CFM CFG ( θ ) = E □ u t θ ( x ∣ y ) − u t target ( x ∣ z ) 2 ( 68 ) 其中 □ = ( z , y ) ∼ p data ( z , y ) , t ∼ Unif [ 0 , 1 ) , x ∼ p t ( ⋅ ∣ z ) , 以概率 η 将 y 替换为 ∅ \square = (z, y) \sim p_{\text{data}}(z, y), t \sim \text{Unif}[0,1), x \sim p_t(\cdot | z), \text{以概率 } \eta \text{ 将 } y \text{ 替换为 } \emptyset □ = ( z , y ) ∼ p data ( z , y ) , t ∼ Unif [ 0 , 1 ) , x ∼ p t ( ⋅ ∣ z ) , 以概率 η 将 y 替换为 ∅ (69)。
给定无条件边际向量场 u t target ( x ∣ ∅ ) u_t^{\text{target}}(x | \emptyset) u t target ( x ∣∅ ) 、引导边际向量场 u t target ( x ∣ y ) u_t^{\text{target}}(x | y) u t target ( x ∣ y ) 和引导尺度 w > 1 w > 1 w > 1 ,无分类器引导向量场定义为:
u ~ t ( x ∣ y ) = ( 1 − w ) u t target ( x ∣ ∅ ) + w u t target ( x ∣ y ) (70)
\tilde{u}_t(x | y) = (1 - w) u_t^{\text{target}}(x | \emptyset) + w u_t^{\text{target}}(x | y) \tag{70}
u ~ t ( x ∣ y ) = ( 1 − w ) u t target ( x ∣∅ ) + w u t target ( x ∣ y ) ( 70 ) 通过单个神经网络同时逼近 u t target ( x ∣ ∅ ) u_t^{\text{target}}(x | \emptyset) u t target ( x ∣∅ ) 和 u t target ( x ∣ y ) u_t^{\text{target}}(x | y) u t target ( x ∣ y ) ,可使用上述无分类器引导的条件流匹配目标(CFG-CFM),其直观流程为:
从数据分布中采样 ( z , y ) (z, y) ( z , y ) ; 从 [ 0 , 1 ] [0,1] [ 0 , 1 ] 均匀分布中采样时间 t t t ; 从条件概率路径 p t ( x ∣ z ) p_t(x | z) p t ( x ∣ z ) 中采样 x x x ; 以概率 η \eta η 将 y y y 替换为 ∅ \emptyset ∅ ; 计算损失:L ( θ ) = ∥ u t θ ( x ∣ y ) − u t target ( x ∣ z ) ∥ 2 \mathcal{L}(\theta) = \left\| u_t^\theta(x | y) - u_t^{\text{target}}(x | z) \right\|^2 L ( θ ) = u t θ ( x ∣ y ) − u t target ( x ∣ z ) 2 (即让模型逼近条件向量场)。 推理时,对于固定引导变量 y y y ,生成流程为:
初始化:X 0 ∼ p init X_0 \sim p_{\text{init}} X 0 ∼ p init (从简单分布如高斯分布中采样); ODE 模拟:d X t = u ~ t θ ( X t ∣ y ) d t dX_t = \tilde{u}_t^\theta(X_t | y) dt d X t = u ~ t θ ( X t ∣ y ) d t (从 t = 0 t=0 t = 0 到 t = 1 t=1 t = 1 模拟 ODE); 输出样本 X 1 X_1 X 1 (目标是让 X 1 X_1 X 1 符合引导变量 y y y )。 需要注意的是,当 w > 1 w > 1 w > 1 时,X 1 X_1 X 1 的分布不再严格服从 p data ( ⋅ ∣ y ) p_{\text{data}}(\cdot | y) p data ( ⋅ ∣ y ) ,但实验表明其与引导条件的契合度显著提升。图 11 展示了在 128×128 ImageNet 数据集上基于类别的无分类器引导效果[10]:引导尺度 w = 4 w=4 w = 4 时,生成样本与“柯基犬”类别的契合度明显高于无引导(w = 1 w=1 w = 1 )的情况。图 12 则展示了在 MNIST 数据集上不同引导尺度的效果,后续实验中你将亲自复现类似结果。
输入 :配对数据集 ( z , y ) ∼ p data (z, y) \sim p_{\text{data}} ( z , y ) ∼ p data 、神经网络 u t θ u_t^\theta u t θ
对于每个迷你批次数据:从数据集中采样样本 ( z , y ) (z, y) ( z , y ) ; 从均匀分布 Unif [ 0 , 1 ] \text{Unif}[0,1] Unif [ 0 , 1 ] 中采样时间 t t t ; 从高斯分布 N ( 0 , I d ) \mathcal{N}(0, I_d) N ( 0 , I d ) 中采样噪声 ϵ \epsilon ϵ ; 构造中间样本 x = α t z + β t ϵ x = \alpha_t z + \beta_t \epsilon x = α t z + β t ϵ ; 以概率 p p p 丢弃标签:y ← ∅ y \leftarrow \emptyset y ← ∅ ; 计算损失:L ( θ ) = ∥ u t θ ( x ∣ y ) − ( α ˙ t ϵ + β ˙ t z ) ∥ 2 \mathcal{L}(\theta) = \left\| u_t^\theta(x | y) - \left( \dot{\alpha}_t \epsilon + \dot{\beta}_t z \right) \right\|^2 L ( θ ) = u t θ ( x ∣ y ) − ( α ˙ t ϵ + β ˙ t z ) 2 ; 通过梯度下降更新模型参数 θ \theta θ 。 重复上述步骤直至训练收敛。 将无分类器引导的思路扩展到扩散模型:首先,类比式 (64),将条件得分匹配目标(式 (61))推广为引导式条件得分匹配目标 :
L CSM guided ( θ ) = E □ ∥ s t θ ( x ∣ y ) − ∇ log p t ( x ∣ z ) ∥ 2 (73)
\mathcal{L}_{\text{CSM}}^{\text{guided}}(\theta) = \mathbb{E}_{\square} \left\| s_t^\theta(x | y) - \nabla \log p_t(x | z) \right\|^2 \tag{73}
L CSM guided ( θ ) = E □ s t θ ( x ∣ y ) − ∇ log p t ( x ∣ z ) 2 ( 73 ) 其中 □ = ( z , y ) ∼ p data ( z , y ) , t ∼ Unif , x ∼ p t ( ⋅ ∣ z ) \square = (z, y) \sim p_{\text{data}}(z, y), t \sim \text{Unif}, x \sim p_t(\cdot | z) □ = ( z , y ) ∼ p data ( z , y ) , t ∼ Unif , x ∼ p t ( ⋅ ∣ z ) (74)。
训练得到引导式得分网络 s t θ ( x ∣ y ) s_t^\theta(x | y) s t θ ( x ∣ y ) 后,可结合引导式向量场 u t θ ( x ∣ y ) u_t^\theta(x | y) u t θ ( x ∣ y ) 模拟 SDE:
X 0 ∼ p init , d X t = [ u t θ ( X t ∣ y ) + σ t 2 2 s t θ ( X t ∣ y ) ] d t + σ t d W t
X_0 \sim p_{\text{init}}, \quad dX_t = \left[ u_t^\theta(X_t | y) + \frac{\sigma_t^2}{2} s_t^\theta(X_t | y) \right] dt + \sigma_t dW_t
X 0 ∼ p init , d X t = [ u t θ ( X t ∣ y ) + 2 σ t 2 s t θ ( X t ∣ y ) ] d t + σ t d W t 结合贝叶斯法则(式 (67)):
∇ log p t ( x ∣ y ) = ∇ log p t ( x ) + ∇ log p t ( y ∣ x )
\nabla \log p_t(x | y) = \nabla \log p_t(x) + \nabla \log p_t(y | x)
∇ log p t ( x ∣ y ) = ∇ log p t ( x ) + ∇ log p t ( y ∣ x ) 对于引导尺度 w > 1 w > 1 w > 1 ,定义无分类器引导得分 :
s ~ t ( x ∣ y ) = ∇ log p t ( x ) + w ∇ log p t ( y ∣ x ) = ∇ log p t ( x ) + w ( ∇ log p t ( x ∣ y ) − ∇ log p t ( x ) ) = ( 1 − w ) ∇ log p t ( x ) + w ∇ log p t ( x ∣ y ) = ( 1 − w ) ∇ log p t ( x ∣ ∅ ) + w ∇ log p t ( x ∣ y )
\begin{aligned}
\tilde{s}_t(x | y) & = \nabla \log p_t(x) + w \nabla \log p_t(y | x) \\
& = \nabla \log p_t(x) + w \left( \nabla \log p_t(x | y) - \nabla \log p_t(x) \right) \\
& = (1 - w) \nabla \log p_t(x) + w \nabla \log p_t(x | y) \\
& = (1 - w) \nabla \log p_t(x | \emptyset) + w \nabla \log p_t(x | y)
\end{aligned}
s ~ t ( x ∣ y ) = ∇ log p t ( x ) + w ∇ log p t ( y ∣ x ) = ∇ log p t ( x ) + w ( ∇ log p t ( x ∣ y ) − ∇ log p t ( x ) ) = ( 1 − w ) ∇ log p t ( x ) + w ∇ log p t ( x ∣ y ) = ( 1 − w ) ∇ log p t ( x ∣∅ ) + w ∇ log p t ( x ∣ y ) 进而得到适配无分类器引导的目标(即允许 y = ∅ y = \emptyset y = ∅ ):
L CSM CFG ( θ ) = E □ ∥ s t θ ( x ∣ y ) − ∇ log p t ( x ∣ z ) ∥ 2 (75)
\mathcal{L}_{\text{CSM}}^{\text{CFG}}(\theta) = \mathbb{E}_{\square} \left\| s_t^\theta(x | y) - \nabla \log p_t(x | z) \right\|^2 \tag{75}
L CSM CFG ( θ ) = E □ s t θ ( x ∣ y ) − ∇ log p t ( x ∣ z ) 2 ( 75 ) 其中 □ = ( z , y ) ∼ p data ( z , y ) , t ∼ Unif [ 0 , 1 ) , x ∼ p t ( ⋅ ∣ z ) , 以概率 η 将 y 替换为 ∅ \square = (z, y) \sim p_{\text{data}}(z, y), t \sim \text{Unif}[0,1), x \sim p_t(\cdot | z), \text{以概率 } \eta \text{ 将 } y \text{ 替换为 } \emptyset □ = ( z , y ) ∼ p data ( z , y ) , t ∼ Unif [ 0 , 1 ) , x ∼ p t ( ⋅ ∣ z ) , 以概率 η 将 y 替换为 ∅ (76),η \eta η 为超参数(标签替换概率)。该目标称为引导式条件得分匹配目标 。
给定无条件边际得分 ∇ log p t ( x ∣ ∅ ) \nabla \log p_t(x | \emptyset) ∇ log p t ( x ∣∅ ) 、引导边际得分场 ∇ log p t ( x ∣ y ) \nabla \log p_t(x | y) ∇ log p t ( x ∣ y ) 和引导尺度 w > 1 w > 1 w > 1 ,无分类器引导得分定义为:
s ~ t ( x ∣ y ) = ( 1 − w ) ∇ log p t ( x ∣ ∅ ) + w ∇ log p t ( x ∣ y ) (77)
\tilde{s}_t(x | y) = (1 - w) \nabla \log p_t(x | \emptyset) + w \nabla \log p_t(x | y) \tag{77}
s ~ t ( x ∣ y ) = ( 1 − w ) ∇ log p t ( x ∣∅ ) + w ∇ log p t ( x ∣ y ) ( 77 ) 通过单个神经网络 s t θ ( x ∣ y ) s_t^\theta(x | y) s t θ ( x ∣ y ) 同时逼近 ∇ log p t ( x ∣ ∅ ) \nabla \log p_t(x | \emptyset) ∇ log p t ( x ∣∅ ) 和 ∇ log p t ( x ∣ y ) \nabla \log p_t(x | y) ∇ log p t ( x ∣ y ) ,可使用无分类器引导的条件得分匹配目标(CFG-CSM) :
L CSM CFG ( θ ) = E □ ∥ s t θ ( x ∣ y ) − ∇ log p t ( x ∣ z ) ∥ 2 (78)
\mathcal{L}_{\text{CSM}}^{\text{CFG}}(\theta) = \mathbb{E}_{\square} \left\| s_t^\theta(x | y) - \nabla \log p_t(x | z) \right\|^2 \tag{78}
L CSM CFG ( θ ) = E □ s t θ ( x ∣ y ) − ∇ log p t ( x ∣ z ) 2 ( 78 ) 其中 □ = ( z , y ) ∼ p data ( z , y ) , t ∼ Unif [ 0 , 1 ) , x ∼ p t ( ⋅ ∣ z ) , 以概率 η 将 y 替换为 ∅ \square = (z, y) \sim p_{\text{data}}(z, y), t \sim \text{Unif}[0,1), x \sim p_t(\cdot | z), \text{以概率 } \eta \text{ 将 } y \text{ 替换为 } \emptyset □ = ( z , y ) ∼ p data ( z , y ) , t ∼ Unif [ 0 , 1 ) , x ∼ p t ( ⋅ ∣ z ) , 以概率 η 将 y 替换为 ∅ (79)。
其直观流程为:
从数据分布中采样 ( z , y ) (z, y) ( z , y ) ; 从 [ 0 , 1 ] [0,1] [ 0 , 1 ] 均匀分布中采样时间 t t t ; 从条件路径 p t ( x ∣ z ) p_t(x | z) p t ( x ∣ z ) 中采样 x x x ; 以概率 η \eta η 将 y y y 替换为 ∅ \emptyset ∅ ; 计算损失:L ( θ ) = ∥ s t θ ( x ∣ y ) − ∇ log p t ( x ∣ z ) ∥ 2 \mathcal{L}(\theta) = \left\| s_t^\theta(x | y) - \nabla \log p_t(x | z) \right\|^2 L ( θ ) = s t θ ( x ∣ y ) − ∇ log p t ( x ∣ z ) 2 (让模型逼近条件得分)。 推理时,对于固定引导尺度 w > 1 w > 1 w > 1 ,结合 s t θ ( x ∣ y ) s_t^\theta(x | y) s t θ ( x ∣ y ) 和引导式向量场 u t θ ( x ∣ y ) u_t^\theta(x | y) u t θ ( x ∣ y ) ,定义:
s ~ t θ ( x ∣ y ) = ( 1 − w ) s t θ ( x ∣ ∅ ) + w s t θ ( x ∣ y ) ,
\tilde{s}_t^\theta(x | y) = (1 - w) s_t^\theta(x | \emptyset) + w s_t^\theta(x | y),
s ~ t θ ( x ∣ y ) = ( 1 − w ) s t θ ( x ∣∅ ) + w s t θ ( x ∣ y ) ,
u ~ t θ ( x ∣ y ) = ( 1 − w ) u t θ ( x ∣ ∅ ) + w u t θ ( x ∣ y ) .
\tilde{u}_t^\theta(x | y) = (1 - w) u_t^\theta(x | \emptyset) + w u_t^\theta(x | y).
u ~ t θ ( x ∣ y ) = ( 1 − w ) u t θ ( x ∣∅ ) + w u t θ ( x ∣ y ) . 生成流程为:
初始化:X 0 ∼ p init X_0 \sim p_{\text{init}} X 0 ∼ p init (从简单分布如高斯分布中采样); SDE 模拟:d X t = [ u ~ t θ ( X t ∣ y ) + σ t 2 2 s ~ t θ ( X t ∣ y ) ] d t + σ t d W t dX_t = \left[ \tilde{u}_t^\theta(X_t | y) + \frac{\sigma_t^2}{2} \tilde{s}_t^\theta(X_t | y) \right] dt + \sigma_t dW_t d X t = [ u ~ t θ ( X t ∣ y ) + 2 σ t 2 s ~ t θ ( X t ∣ y ) ] d t + σ t d W t (从 t = 0 t=0 t = 0 到 t = 1 t=1 t = 1 模拟 SDE); 输出样本 X 1 X_1 X 1 (目标是让 X 1 X_1 X 1 符合引导变量 y y y )。 接下来讨论流模型和扩散模型的神经网络设计,核心问题是:如何构建参数化(引导式)向量场 u t θ ( x ∣ y ) u_t^\theta(x | y) u t θ ( x ∣ y ) 的架构?该神经网络需满足:输入为向量 x ∈ R d x \in \mathbb{R}^d x ∈ R d 、引导变量 y ∈ Y y \in \mathcal{Y} y ∈ Y 和时间 t ∈ [ 0 , 1 ] t \in [0,1] t ∈ [ 0 , 1 ] ,输出为向量 u t θ ( x ∣ y ) ∈ R d u_t^\theta(x | y) \in \mathbb{R}^d u t θ ( x ∣ y ) ∈ R d 。
对于低维分布(如前文的玩具分布),使用多层感知机(MLP,又称全连接神经网络)即可:将 x x x 、y y y 、t t t 拼接后输入 MLP。但对于图像、视频、蛋白质结构等复杂高维分布,MLP 难以胜任,需使用专门的任务适配架构。本节聚焦图像(及视频)生成,重点介绍两种主流架构:U-Net[25] 和扩散Transformer(DiT)。
首先回顾:图像可表示为向量 x ∈ R C image × H × W x \in \mathbb{R}^{C_{\text{image}} \times H \times W} x ∈ R C image × H × W ,其中 C image C_{\text{image}} C image 为通道数(RGB 图像通常 C image = 3 C_{\text{image}} = 3 C image = 3 ),H H H 为图像高度(像素数),W W W 为图像宽度(像素数)。
U-Net 是一种卷积神经网络(CNN),最初为图像分割任务设计,其核心优势是输入与输出的形状一致 (可能通道数不同)——这使其非常适合参数化向量场 x ↦ u t θ ( x ∣ y ) x \mapsto u_t^\theta(x | y) x ↦ u t θ ( x ∣ y ) (固定 y y y 和 t t t 时,输入和输出均为图像形状)。因此,U-Net 在扩散模型的发展中被广泛应用。
U-Net 的结构由一系列编码器 E i E_i E i 、解码器 D i D_i D i 以及中间的 latent 处理块(称为 midcoder,非通用术语)组成。以输入图像 x t ∈ R 3 × 256 × 256 x_t \in \mathbb{R}^{3 \times 256 \times 256} x t ∈ R 3 × 256 × 256 (即 C input = 3 , H = 256 , W = 256 C_{\text{input}}=3, H=256, W=256 C input = 3 , H = 256 , W = 256 )为例,其处理流程如下:
输入:x t input ∈ R 3 × 256 × 256 x_t^{\text{input}} \in \mathbb{R}^{3 \times 256 \times 256} x t input ∈ R 3 × 256 × 256 (U-Net 的输入图像); 编码:通过编码器得到 latent 表示 x t latent = E ( x t input ) ∈ R 512 × 32 × 32 x_t^{\text{latent}} = \mathcal{E}(x_t^{\text{input}}) \in \mathbb{R}^{512 \times 32 \times 32} x t latent = E ( x t input ) ∈ R 512 × 32 × 32 (通道数增加,高度和宽度减小); 中间处理:通过 midcoder 处理 latent 表示 x t latent = M ( x t latent ) ∈ R 512 × 32 × 32 x_t^{\text{latent}} = \mathcal{M}(x_t^{\text{latent}}) \in \mathbb{R}^{512 \times 32 \times 32} x t latent = M ( x t latent ) ∈ R 512 × 32 × 32 ; 解码:通过解码器得到输出 x t output = D ( x t latent ) ∈ R 3 × 256 × 256 x_t^{\text{output}} = \mathcal{D}(x_t^{\text{latent}}) \in \mathbb{R}^{3 \times 256 \times 256} x t output = D ( x t latent ) ∈ R 3 × 256 × 256 (通道数还原,高度和宽度恢复)。 需要补充两点细节:一是输入 x t input x_t^{\text{input}} x t input 通常先经过初始预编码块,增加通道数后再输入第一个编码器;二是编码器与解码器之间常通过残差连接(residual connection)传递信息(完整结构见图 13)。
从宏观上看,大多数 U-Net 均遵循上述核心流程,但具体实现可能存在差异。例如,本笔记描述的是纯卷积架构,而实际应用中常在编码器和解码器中加入注意力层(attention layer)。U-Net 的名称源于其“U”形结构——编码器沿“左-中”方向通道数递增、尺寸递减,解码器沿“中-右”方向通道数递减、尺寸递增,整体形成 U 形(见图 13)。
U-Net 的一种替代方案是扩散 Transformer(DiT),其摒弃了卷积操作,完全基于注意力机制[35, 19]。DiT 基于视觉Transformer(ViT),核心思路是:将图像分割为多个补丁(patch),对每个补丁进行嵌入(embed),然后通过补丁间的注意力交互捕捉全局信息[6]。Stable Diffusion 3 采用条件流匹配训练,其速度场 u t θ ( x ) u_t^\theta(x) u t θ ( x ) 即通过改进后的 DiT 实现(见 5.3 节[7])。
大规模应用中面临的一个共性问题是数据维度过高,导致内存消耗巨大。例如,生成 1000×1000 像素的高分辨率图像,其维度可达百万级。为解决这一问题,主流方案是在 latent 空间中训练——将流模型或扩散模型与(变分)自编码器(autoencoder)结合[24]:
训练阶段:先通过自编码器将训练数据编码到低分辨率的 latent 空间,再在 latent 空间中训练流模型或扩散模型; 生成阶段:先在 latent 空间中通过训练好的模型采样,再通过自编码器的解码器将 latent 表示还原为图像。 直观来看,训练良好的自编码器能过滤掉语义无关的细节,让生成模型聚焦于重要的感知相关特征[24]。目前,几乎所有最先进的图像和视频生成模型均采用“latent 空间+自编码器”的架构(称为 latent 扩散模型[24, 34])。需要注意的是,训练扩散模型前需先训练自编码器,且模型性能很大程度上依赖自编码器的压缩质量和图像还原能力。
前文未详细说明引导变量 y y y 如何输入神经网络 u t θ ( x ∣ y ) u_t^\theta(x | y) u t θ ( x ∣ y ) 。该过程大致分为两步:一是将原始输入 y raw y_{\text{raw}} y raw (如文本提示“一只吹生日蜡烛的猫,照片级真实感”)嵌入为向量形式 y y y ;二是将 y y y 注入到模型中。以下详细介绍这两步的实现方式。
分两种场景讨论:
离散类别标签:若 y raw ∈ Y ≜ { 0 , . . . , N } y_{\text{raw}} \in Y \triangleq \{0, ..., N\} y raw ∈ Y ≜ { 0 , ... , N } 是离散标签,最简单的方式是为每个标签学习一个独立的嵌入向量,将 y y y 设为该向量。嵌入向量的参数属于 u t θ ( x ∣ y ) u_t^\theta(x | y) u t θ ( x ∣ y ) 的一部分,随模型一起训练。 文本提示:若 y raw y_{\text{raw}} y raw 是文本提示,需依赖预训练的冻结模型将其转换为连续向量(捕捉文本语义)。常用模型如 CLIP(Contrastive Language-Image Pretraining):CLIP 通过对比学习训练,构建了图像和文本的共享嵌入空间——图像嵌入与对应文本提示的嵌入距离较近,与其他文本的嵌入距离较远[22]。因此,可直接使用冻结的预训练 CLIP 模型,将文本提示 y raw y_{\text{raw}} y raw 转换为嵌入向量 y = CLIP ( y raw ) ∈ R d CLIP y = \text{CLIP}(y_{\text{raw}}) \in \mathbb{R}^{d_{\text{CLIP}}} y = CLIP ( y raw ) ∈ R d CLIP 。 部分场景下,不希望将整个文本序列压缩为单个向量,此时可使用预训练 Transformer 对文本提示进行嵌入,得到序列形式的嵌入向量。此外,为充分利用不同预训练模型的优势,条件生成中常组合多种预训练嵌入(如 CLIP 嵌入+Transformer 序列嵌入)[7, 21]。
得到嵌入向量 y ∈ R d y y \in \mathbb{R}^{d_y} y ∈ R d y 后,需将其注入图像生成架构的各个子组件。以实验中使用的 U-Net 实现为例(见图 13),注入流程可通过以下 PyTorch 风格的伪代码实现:
y = MLP ( y ) ∈ R C y = \text{MLP}(y) \in \mathbb{R}^C y = MLP ( y ) ∈ R C (将 y y y 从 R d y \mathbb{R}^{d_y} R d y 映射到与当前网络层通道数 C C C 一致的向量);y = reshape ( y ) ∈ R C × 1 × 1 y = \text{reshape}(y) \in \mathbb{R}^{C \times 1 \times 1} y = reshape ( y ) ∈ R C × 1 × 1 (将 y y y 重塑为“图像形状”,便于广播);x t intermediate = broadcast_add ( x t intermediate , y ) ∈ R C × H × W x_t^{\text{intermediate}} = \text{broadcast\_add}(x_t^{\text{intermediate}}, y) \in \mathbb{R}^{C \times H \times W} x t intermediate = broadcast_add ( x t intermediate , y ) ∈ R C × H × W (通过广播加法将 y y y 的信息注入当前特征图)。若嵌入向量是序列形式(如预训练 Transformer 输出),则需采用跨注意力(cross-attention)机制:将图像补丁化(patchify)后,与文本嵌入序列进行跨注意力交互。5.3 节将给出多个此类实例。
本节将深入剖析两款大规模生成模型:图像生成模型 Stable Diffusion 3 和视频生成模型 Meta 的 Movie Gen Video[7, 21]。这些模型均基于前文介绍的技术,并通过架构增强实现了大规模扩展,能够处理文本提示等复杂结构化引导模态。
Stable Diffusion 是一系列最先进的图像生成模型,也是首批大规模应用 latent 扩散模型的架构之一。建议你通过官网(https://stability.ai/news/stable-diffusion-3)亲自体验其生成效果。
Stable Diffusion 3 采用的条件流匹配目标与本笔记介绍的完全一致(见算法 5)3。其论文指出,团队对多种流模型和扩散模型的变体进行了广泛测试,最终发现流匹配的性能最优。训练过程中,Stable Diffusion 3 采用无分类器引导(通过丢弃标签实现),且遵循 5.2 节的 latent 空间训练思路——在预训练自编码器的 latent 空间中训练。值得一提的是,训练高质量自编码器是早期 Stable Diffusion 系列的核心贡献之一。
为增强文本条件的表达能力,Stable Diffusion 3 结合了三种不同类型的文本嵌入:包括 CLIP 嵌入、Google T5-XXL 编码器的预训练序列输出[23],以及类似[3, 26]的嵌入方式。其中,CLIP 嵌入提供文本的全局粗粒度语义,T5 嵌入提供更细粒度的上下文信息,使模型能够关注文本提示中的特定元素。为适配序列形式的上下文嵌入,研究人员对扩散 Transformer 进行了扩展:除了图像补丁间的自注意力,还引入了图像补丁与文本嵌入序列的跨注意力,将 DiT 原本基于类别的条件能力扩展到序列上下文,这种改进后的 DiT 称为多模态 DiT(MM-DiT) (结构见图 15)。Stable Diffusion 3 的最大模型含 80 亿参数,采样时采用欧拉法模拟,步数为 50 步(即需评估网络 50 次),无分类器引导权重设置在 2.0-5.0 之间。
3 其论文中采用了不同的噪声条件化约定,但本质上与本笔记的算法一致。
接下来介绍 Meta 的视频生成模型 Movie Gen Video(官网:https://ai.meta.com/research/movie-gen/)。与图像不同,视频数据 x x x 的空间为 R T × C × H × W \mathbb{R}^{T \times C \times H \times W} R T × C × H × W ,其中 T T T 是新增的时间维度(即帧数)。该模型的设计思路是:将图像生成的现有技术(如自编码器、扩散 Transformer)适配到视频场景,以处理额外的时间维度。
Movie Gen Video 采用条件流匹配目标,使用与算法 5 相同的 CondOT 路径。与 Stable Diffusion 3 类似,它也在冻结的预训练自编码器的 latent 空间中训练——对于视频而言,自编码器的内存压缩作用更为关键,这也是目前大多数视频生成器的视频长度受限的原因。具体来说,研究人员引入了时间自编码器(TAE) ,将原始视频 x t ′ ∈ R T ′ × 3 × H × W x_t' \in \mathbb{R}^{T' \times 3 \times H \times W} x t ′ ∈ R T ′ × 3 × H × W 映射到 latent 表示 x t ∈ R T × C × H × W x_t \in \mathbb{R}^{T \times C \times H \times W} x t ∈ R T × C × H × W ,其中压缩比为 T ′ T = H ′ H = W ′ W = 8 \frac{T'}{T} = \frac{H'}{H} = \frac{W'}{W} = 8 T T ′ = H H ′ = W W ′ = 8 [21]。为处理长视频,模型采用时间分片(temporal tiling)策略:将长视频分割为多个片段,分别编码后拼接 latent 表示[21]。
模型的核心部分(即 u t θ ( x t ) u_t^\theta(x_t) u t θ ( x t ) )基于 DiT 架构:将 x t x_t x t 沿时间和空间维度同时补丁化,图像补丁通过 Transformer 进行两类注意力交互——补丁间的自注意力,以及与语言模型嵌入的跨注意力(与 Stable Diffusion 3 的 MM-DiT 类似)。文本条件方面,Movie Gen Video 结合了三种文本嵌入:UL2 嵌入(用于细粒度文本推理[33])、ByT5 嵌入(用于关注字符级细节,例如提示中明确要求出现的文本[36]),以及 MetaCLIP 嵌入(在文本-图像共享嵌入空间中训练[13, 21])。其最大模型含 300 亿参数,更详细的技术细节可参考 Movie Gen 的技术报告[21]。
是否需要我针对某款模型的架构细节(如 MM-DiT 的跨注意力实现、时间自编码器的工作原理)展开更具体的说明?
本节将简要概述概率论的核心基础概念,部分内容参考自[15]。
考虑 d 维欧几里得空间中的数据 x = ( x 1 , . . . , x d ) ∈ R d x=(x^1, ..., x^d) \in \mathbb{R}^d x = ( x 1 , ... , x d ) ∈ R d ,其标准欧几里得内积定义为 < x , y > = ∑ i = 1 d x i y i <x, y> = \sum_{i=1}^d x^i y^i < x , y >= ∑ i = 1 d x i y i ,范数定义为 ∥ x ∥ = < x , x > \|x\| = \sqrt{<x, x>} ∥ x ∥ = < x , x > 。我们重点关注具有连续概率密度函数(PDF) 的随机变量(RVs)X ∈ R d X \in \mathbb{R}^d X ∈ R d ——概率密度函数是一个连续函数 p X : R d → R ≥ 0 p_X: \mathbb{R}^d \to \mathbb{R}_{≥0} p X : R d → R ≥ 0 ,事件 A A A 发生的概率可通过以下积分计算:
P ( X ∈ A ) = ∫ A p X ( x ) d x (80)
\mathbb{P}(X \in A) = \int_A p_X(x) dx \tag{80}
P ( X ∈ A ) = ∫ A p X ( x ) d x ( 80 ) 其中 ∫ p X ( x ) d x = 1 \int p_X(x) dx = 1 ∫ p X ( x ) d x = 1 (概率归一化条件)。为简化表述,我们约定:积分区间未明确标注时,默认对整个 d 维空间积分(即 ∫ ≡ ∫ R d \int \equiv \int_{\mathbb{R}^d} ∫ ≡ ∫ R d );随机变量 X t X_t X t 的概率密度函数 p X t p_{X_t} p X t 简记为 p t p_t p t ;用 X ∼ p X \sim p X ∼ p 或 X ∼ p ( X ) X \sim p(X) X ∼ p ( X ) 表示随机变量 X X X 服从分布 p p p 。
生成建模中最常用的概率密度函数之一是d 维各向同性高斯分布 ,其形式为:
N ( x ; μ , σ 2 I ) = ( 2 π σ 2 ) − d 2 exp ( − ∥ x − μ ∥ 2 2 2 σ 2 ) (81)
\mathcal{N}(x; \mu, \sigma^2 I) = (2\pi \sigma^2)^{-\frac{d}{2}} \exp\left(-\frac{\|x - \mu\|_2^2}{2\sigma^2}\right) \tag{81}
N ( x ; μ , σ 2 I ) = ( 2 π σ 2 ) − 2 d exp ( − 2 σ 2 ∥ x − μ ∥ 2 2 ) ( 81 ) 其中 μ ∈ R d \mu \in \mathbb{R}^d μ ∈ R d 是分布的均值,σ ∈ R > 0 \sigma \in \mathbb{R}_{>0} σ ∈ R > 0 是标准差。
随机变量的期望 是在最小二乘意义下与 X X X 最接近的常数向量,其计算公式为:
E [ X ] = a r g m i n z ∈ R d ∫ ∥ x − z ∥ 2 p X ( x ) d x = ∫ x p X ( x ) d x
\mathbb{E}[X] = \underset{z \in \mathbb{R}^d}{arg\ min} \int \|x - z\|^2 p_X(x) dx = \int x p_X(x) dx
E [ X ] = z ∈ R d a r g min ∫ ∥ x − z ∥ 2 p X ( x ) d x = ∫ x p X ( x ) d x 计算随机变量函数的期望时,可借助无意识统计学家法则(Law of the Unconscious Statistician) ,无需先求解函数的分布,直接通过以下公式计算:
E [ f ( X ) ] = ∫ f ( x ) p X ( x ) d x (83)
\mathbb{E}[f(X)] = \int f(x) p_X(x) dx \tag{83}
E [ f ( X )] = ∫ f ( x ) p X ( x ) d x ( 83 ) 必要时,我们会明确标注期望所针对的随机变量,例如 E X f ( X ) \mathbb{E}_X f(X) E X f ( X ) 。
给定两个随机变量 X , Y ∈ R d X, Y \in \mathbb{R}^d X , Y ∈ R d ,它们的联合概率密度函数 p X , Y ( x , y ) p_{X,Y}(x, y) p X , Y ( x , y ) 满足边际化性质 ——对联合密度在一个变量的全空间积分,可得到另一个变量的边际密度:
∫ p X , Y ( x , y ) d y = p X ( x ) , ∫ p X , Y ( x , y ) d x = p Y ( y ) (84)
\int p_{X,Y}(x, y) dy = p_X(x), \quad \int p_{X,Y}(x, y) dx = p_Y(y) \tag{84}
∫ p X , Y ( x , y ) d y = p X ( x ) , ∫ p X , Y ( x , y ) d x = p Y ( y ) ( 84 ) 图 16 展示了二维空间中(d = 1 d=1 d = 1 )联合概率密度函数与其边际密度的关系。
当 p Y ( y ) > 0 p_Y(y) > 0 p Y ( y ) > 0 时,给定事件 Y = y Y=y Y = y 条件下,随机变量 X X X 的条件概率密度函数 定义为:
p X ∣ Y ( x ∣ y ) : = p X , Y ( x , y ) p Y ( y )
p_{X|Y}(x | y) := \frac{p_{X,Y}(x, y)}{p_Y(y)}
p X ∣ Y ( x ∣ y ) := p Y ( y ) p X , Y ( x , y ) 同理可定义 p Y ∣ X ( y ∣ x ) p_{Y|X}(y | x) p Y ∣ X ( y ∣ x ) 。根据贝叶斯法则 ,条件密度之间满足以下关系:
p Y ∣ X ( y ∣ x ) = p X ∣ Y ( x ∣ y ) p Y ( y ) p X ( x )
p_{Y|X}(y | x) = \frac{p_{X|Y}(x | y) p_Y(y)}{p_X(x)}
p Y ∣ X ( y ∣ x ) = p X ( x ) p X ∣ Y ( x ∣ y ) p Y ( y ) 其中 p X ( x ) > 0 p_X(x) > 0 p X ( x ) > 0 。
条件期望 E [ X ∣ Y ] \mathbb{E}[X | Y] E [ X ∣ Y ] 是在最小二乘意义下逼近 X X X 的最优函数 g ∗ ( Y ) g_*(Y) g ∗ ( Y ) ,即:
g ∗ : = a r g m i n g : R d → R d E [ ∥ X − g ( Y ) ∥ 2 ] = a r g m i n g : R d → R d ∫ ∥ x − g ( y ) ∥ 2 p X , Y ( x , y ) d x d y = a r g m i n g : R d → R d ∫ [ ∫ ∥ x − g ( y ) ∥ 2 p X ∣ Y ( x ∣ y ) d x ] p Y ( y ) d y
\begin{aligned}
g_* & := \underset{g: \mathbb{R}^d \to \mathbb{R}^d}{arg\ min} \mathbb{E}\left[\|X - g(Y)\|^2\right] \\
& = \underset{g: \mathbb{R}^d \to \mathbb{R}^d}{arg\ min} \int \|x - g(y)\|^2 p_{X,Y}(x, y) dx dy \\
& = \underset{g: \mathbb{R}^d \to \mathbb{R}^d}{arg\ min} \int \left[\int \|x - g(y)\|^2 p_{X|Y}(x | y) dx\right] p_Y(y) dy
\end{aligned}
g ∗ := g : R d → R d a r g min E [ ∥ X − g ( Y ) ∥ 2 ] = g : R d → R d a r g min ∫ ∥ x − g ( y ) ∥ 2 p X , Y ( x , y ) d x d y = g : R d → R d a r g min ∫ [ ∫ ∥ x − g ( y ) ∥ 2 p X ∣ Y ( x ∣ y ) d x ] p Y ( y ) d y 对于满足 p Y ( y ) > 0 p_Y(y) > 0 p Y ( y ) > 0 的 y ∈ R d y \in \mathbb{R}^d y ∈ R d ,条件期望函数的具体形式为:
E [ X ∣ Y = y ] : = g ∗ ( y ) = ∫ x p X ∣ Y ( x ∣ y ) d x (88)
\mathbb{E}[X | Y=y] := g_*(y) = \int x p_{X|Y}(x | y) dx \tag{88}
E [ X ∣ Y = y ] := g ∗ ( y ) = ∫ x p X ∣ Y ( x ∣ y ) d x ( 88 ) 将最优函数 g ∗ g_* g ∗ 与随机变量 Y Y Y 复合,得到条件期望 E [ X ∣ Y ] : = g ∗ ( Y ) \mathbb{E}[X | Y] := g_*(Y) E [ X ∣ Y ] := g ∗ ( Y ) ——这是一个取值于 R d \mathbb{R}^d R d 的随机变量。
需要注意的是,E [ X ∣ Y = y ] \mathbb{E}[X | Y=y] E [ X ∣ Y = y ] 与 E [ X ∣ Y ] \mathbb{E}[X | Y] E [ X ∣ Y ] 是两个不同的概念:前者是从 R d \mathbb{R}^d R d 到 R d \mathbb{R}^d R d 的函数,后者是随机变量。为避免混淆,本节及后续内容均采用上述定义的符号。
塔性质(Tower Property) :该性质可简化涉及两个随机变量的条件期望推导,其核心是“条件期望的期望等于原变量的期望”:
E [ E [ X ∣ Y ] ] = E [ X ] (90)
\mathbb{E}\left[\mathbb{E}\left[X | Y\right]\right] = \mathbb{E}\left[X\right] \tag{90}
E [ E [ X ∣ Y ] ] = E [ X ] ( 90 ) 证明:利用条件期望的定义和边际化性质,可验证:
E [ E [ X ∣ Y ] ] = ∫ ( ∫ x p X ∣ Y ( x ∣ y ) d x ) p Y ( y ) d y = ( 85 ) ∬ x p X , Y ( x , y ) d x d y = ( 84 ) ∫ x p X ( x ) d x = E [ X ]
\begin{aligned}
\mathbb{E}[\mathbb{E}[X | Y]] & = \int \left(\int x p_{X|Y}(x | y) dx\right) p_Y(y) dy \\
& \stackrel{(85)}{=} \iint x p_{X,Y}(x, y) dx dy \\
& \stackrel{(84)}{=} \int x p_X(x) dx \\
& = \mathbb{E}[X]
\end{aligned}
E [ E [ X ∣ Y ]] = ∫ ( ∫ x p X ∣ Y ( x ∣ y ) d x ) p Y ( y ) d y = ( 85 ) ∬ x p X , Y ( x , y ) d x d y = ( 84 ) ∫ x p X ( x ) d x = E [ X ] 联合函数的条件期望 :对于任意两个随机变量 X , Y X, Y X , Y 及函数 f ( X , Y ) f(X, Y) f ( X , Y ) ,结合无意识统计学家法则与条件期望的定义,可得到以下恒等式:
E [ f ( X , Y ) ∣ Y = y ] = ∫ f ( x , y ) p X ∣ Y ( x ∣ y ) d x (91)
\mathbb{E}[f(X, Y) | Y=y] = \int f(x, y) p_{X|Y}(x | y) dx \tag{91}
E [ f ( X , Y ) ∣ Y = y ] = ∫ f ( x , y ) p X ∣ Y ( x ∣ y ) d x ( 91 ) 是否需要我对某个具体概念(如高斯分布的期望计算、贝叶斯法则的应用示例)补充更详细的推导或说明?
本节将给出福克-普朗克方程(定理 15)的完整自洽证明,连续性方程(定理 12)是该方程的特例。需要说明的是,本节内容并非理解文档其余部分的必要前提,且数学难度较高。若你希望深入了解福克-普朗克方程的推导过程,可继续阅读。
我们首先证明福克-普朗克方程的必要性 :若随机过程 X t ∼ p t X_t \sim p_t X t ∼ p t (即 X t X_t X t 服从边际概率路径 p t p_t p t ),则 p t p_t p t 必然满足福克-普朗克方程。证明的关键技巧是使用测试函数(test functions) ——这类函数 f : R d → R f: \mathbb{R}^d \to \mathbb{R} f : R d → R 需满足“无穷可微(光滑)”且“仅在有界域内非零(紧支撑)”。
我们利用以下核心性质:对于任意可积函数 g 1 , g 2 : R d → R g_1, g_2: \mathbb{R}^d \to \mathbb{R} g 1 , g 2 : R d → R ,其逐点相等等价于对所有测试函数 f f f 的积分相等,即:
g 1 ( x ) = g 2 ( x ) ∀ x ∈ R d ⇔ ∫ f ( x ) g 1 ( x ) d x = ∫ f ( x ) g 2 ( x ) d x ∀ 测试函数 f (92)
g_1(x) = g_2(x) \quad \forall x \in \mathbb{R}^d \quad \Leftrightarrow \quad \int f(x) g_1(x) dx = \int f(x) g_2(x) dx \quad \forall \text{测试函数 } f \tag{92}
g 1 ( x ) = g 2 ( x ) ∀ x ∈ R d ⇔ ∫ f ( x ) g 1 ( x ) d x = ∫ f ( x ) g 2 ( x ) d x ∀ 测试函数 f ( 92 ) 换句话说,可通过积分相等间接证明逐点相等。测试函数的优势在于光滑性,允许我们对其求梯度及更高阶导数,且可利用分部积分简化计算。
基于散度(div)和拉普拉斯(Δ)算子的定义(见式 (23)),结合分部积分,可推导得到以下两个核心恒等式:
对于函数 f 1 : R d → R f_1: \mathbb{R}^d \to \mathbb{R} f 1 : R d → R (标量函数)和 f 2 : R d → R d f_2: \mathbb{R}^d \to \mathbb{R}^d f 2 : R d → R d (向量函数):
∫ ∇ f 1 T ( x ) f 2 ( x ) d x = − ∫ f 1 ( x ) div ( f 2 ) ( x ) d x (94)
\int \nabla f_1^T(x) f_2(x) dx = -\int f_1(x) \, \text{div}(f_2)(x) dx \tag{94}
∫ ∇ f 1 T ( x ) f 2 ( x ) d x = − ∫ f 1 ( x ) div ( f 2 ) ( x ) d x ( 94 ) 对于两个标量函数 f 1 : R d → R f_1: \mathbb{R}^d \to \mathbb{R} f 1 : R d → R 和 f 2 : R d → R f_2: \mathbb{R}^d \to \mathbb{R} f 2 : R d → R :
∫ f 1 ( x ) Δ f 2 ( x ) d x = ∫ f 2 ( x ) Δ f 1 ( x ) d x (95)
\int f_1(x) \, \Delta f_2(x) dx = \int f_2(x) \, \Delta f_1(x) dx \tag{95}
∫ f 1 ( x ) Δ f 2 ( x ) d x = ∫ f 2 ( x ) Δ f 1 ( x ) d x ( 95 ) 首先回顾 SDE 轨迹的随机更新形式(见式 (6)):
X t + h = X t + h u t ( X t ) + σ t ( W t + h − W t ) + h R t ( h )
X_{t+h} = X_t + h u_t(X_t) + \sigma_t (W_{t+h} - W_t) + h R_t(h)
X t + h = X t + h u t ( X t ) + σ t ( W t + h − W t ) + h R t ( h ) 其中 R t ( h ) R_t(h) R t ( h ) 是随机误差项,满足 h → 0 h \to 0 h → 0 时 R t ( h ) → 0 R_t(h) \to 0 R t ( h ) → 0 。为简化可读性,暂忽略误差项,近似为:
X t + h ≈ X t + h u t ( X t ) + σ t ( W t + h − W t )
X_{t+h} \approx X_t + h u_t(X_t) + \sigma_t (W_{t+h} - W_t)
X t + h ≈ X t + h u t ( X t ) + σ t ( W t + h − W t ) 其中 W t W_t W t 是布朗运动,满足 W t + h − W t ∣ X t ∼ N ( 0 , h I d ) W_{t+h} - W_t \mid X_t \sim \mathcal{N}(0, h I_d) W t + h − W t ∣ X t ∼ N ( 0 , h I d ) (增量服从均值为 0、方差为 h I d h I_d h I d 的高斯分布),且 E [ W t + h − W t ∣ X t ] = 0 \mathbb{E}[W_{t+h} - W_t \mid X_t] = 0 E [ W t + h − W t ∣ X t ] = 0 (增量条件期望为 0)。
对测试函数 f f f 在 X t X_t X t 处进行二阶泰勒展开,得到:
f ( X t + h ) − f ( X t ) = f ( X t + h u t ( X t ) + σ t ( W t + h − W t ) ) − f ( X t ) = ∇ f ( X t ) T ( h u t ( X t ) + σ t ( W t + h − W t ) ) + 1 2 ( h u t ( X t ) + σ t ( W t + h − W t ) ) T ∇ 2 f ( X t ) ( h u t ( X t ) + σ t ( W t + h − W t ) )
\begin{aligned}
f(X_{t+h}) - f(X_t) &= f\left(X_t + h u_t(X_t) + \sigma_t (W_{t+h} - W_t)\right) - f(X_t) \\
&= \nabla f(X_t)^T \left( h u_t(X_t) + \sigma_t (W_{t+h} - W_t) \right) \\
&\quad + \frac{1}{2} \left( h u_t(X_t) + \sigma_t (W_{t+h} - W_t) \right)^T \nabla^2 f(X_t) \left( h u_t(X_t) + \sigma_t (W_{t+h} - W_t) \right)
\end{aligned}
f ( X t + h ) − f ( X t ) = f ( X t + h u t ( X t ) + σ t ( W t + h − W t ) ) − f ( X t ) = ∇ f ( X t ) T ( h u t ( X t ) + σ t ( W t + h − W t ) ) + 2 1 ( h u t ( X t ) + σ t ( W t + h − W t ) ) T ∇ 2 f ( X t ) ( h u t ( X t ) + σ t ( W t + h − W t ) ) 其中 ∇ 2 f ( X t ) \nabla^2 f(X_t) ∇ 2 f ( X t ) 是 f f f 在 X t X_t X t 处的黑塞矩阵(Hessian matrix),且因黑塞矩阵对称,展开后可整理为:
f ( X t + h ) − f ( X t ) = h ∇ f ( X t ) T u t ( X t ) + σ t ∇ f ( X t ) T ( W t + h − W t ) + 1 2 h 2 u t ( X t ) T ∇ 2 f ( X t ) u t ( X t ) + h σ t u t ( X t ) T ∇ 2 f ( X t ) ( W t + h − W t ) + 1 2 σ t 2 ( W t + h − W t ) T ∇ 2 f ( X t ) ( W t + h − W t )
\begin{aligned}
f(X_{t+h}) - f(X_t) &= h \nabla f(X_t)^T u_t(X_t) + \sigma_t \nabla f(X_t)^T (W_{t+h} - W_t) \\
&\quad + \frac{1}{2} h^2 u_t(X_t)^T \nabla^2 f(X_t) u_t(X_t) + h \sigma_t u_t(X_t)^T \nabla^2 f(X_t) (W_{t+h} - W_t) \\
&\quad + \frac{1}{2} \sigma_t^2 (W_{t+h} - W_t)^T \nabla^2 f(X_t) (W_{t+h} - W_t)
\end{aligned}
f ( X t + h ) − f ( X t ) = h ∇ f ( X t ) T u t ( X t ) + σ t ∇ f ( X t ) T ( W t + h − W t ) + 2 1 h 2 u t ( X t ) T ∇ 2 f ( X t ) u t ( X t ) + h σ t u t ( X t ) T ∇ 2 f ( X t ) ( W t + h − W t ) + 2 1 σ t 2 ( W t + h − W t ) T ∇ 2 f ( X t ) ( W t + h − W t ) 对等式两边取关于 X t X_t X t 的条件期望 E [ ⋅ ∣ X t ] \mathbb{E}[\cdot \mid X_t] E [ ⋅ ∣ X t ] 。由于 W t + h − W t W_{t+h} - W_t W t + h − W t 与 X t X_t X t 独立,且其条件期望为 0,含 W t + h − W t W_{t+h} - W_t W t + h − W t 的线性项会消失,仅保留常数项和二次项:
E [ f ( X t + h ) − f ( X t ) ∣ X t ] = h ∇ f ( X t ) T u t ( X t ) + 1 2 h 2 u t ( X t ) T ∇ 2 f ( X t ) u t ( X t ) + 1 2 σ t 2 E ϵ t ∼ N ( 0 , I d ) [ ϵ t T ∇ 2 f ( X t ) ϵ t ]
\begin{aligned}
\mathbb{E}\left[f(X_{t+h}) - f(X_t) \mid X_t\right] &= h \nabla f(X_t)^T u_t(X_t) + \frac{1}{2} h^2 u_t(X_t)^T \nabla^2 f(X_t) u_t(X_t) \\
&\quad + \frac{1}{2} \sigma_t^2 \mathbb{E}_{\epsilon_t \sim \mathcal{N}(0, I_d)} \left[ \epsilon_t^T \nabla^2 f(X_t) \epsilon_t \right]
\end{aligned}
E [ f ( X t + h ) − f ( X t ) ∣ X t ] = h ∇ f ( X t ) T u t ( X t ) + 2 1 h 2 u t ( X t ) T ∇ 2 f ( X t ) u t ( X t ) + 2 1 σ t 2 E ϵ t ∼ N ( 0 , I d ) [ ϵ t T ∇ 2 f ( X t ) ϵ t ] 其中 ϵ t = W t + h − W t h ∼ N ( 0 , I d ) \epsilon_t = \frac{W_{t+h} - W_t}{\sqrt{h}} \sim \mathcal{N}(0, I_d) ϵ t = h W t + h − W t ∼ N ( 0 , I d ) (标准化后的噪声)。利用高斯随机向量的性质 E [ ϵ t T A ϵ t ] = trace ( A ) \mathbb{E}[\epsilon_t^T A \epsilon_t] = \text{trace}(A) E [ ϵ t T A ϵ t ] = trace ( A ) (A A A 为对称矩阵,trace ( A ) \text{trace}(A) trace ( A ) 表示矩阵的迹),且拉普拉斯算子 Δ f = trace ( ∇ 2 f ) \Delta f = \text{trace}(\nabla^2 f) Δ f = trace ( ∇ 2 f ) ,可进一步化简:
E [ f ( X t + h ) − f ( X t ) ∣ X t ] = h ∇ f ( X t ) T u t ( X t ) + 1 2 h 2 u t ( X t ) T ∇ 2 f ( X t ) u t ( X t ) + h 2 σ t 2 Δ f ( X t )
\begin{aligned}
\mathbb{E}\left[f(X_{t+h}) - f(X_t) \mid X_t\right] &= h \nabla f(X_t)^T u_t(X_t) + \frac{1}{2} h^2 u_t(X_t)^T \nabla^2 f(X_t) u_t(X_t) \\
&\quad + \frac{h}{2} \sigma_t^2 \Delta f(X_t)
\end{aligned}
E [ f ( X t + h ) − f ( X t ) ∣ X t ] = h ∇ f ( X t ) T u t ( X t ) + 2 1 h 2 u t ( X t ) T ∇ 2 f ( X t ) u t ( X t ) + 2 h σ t 2 Δ f ( X t ) 对 E [ f ( X t ) ] \mathbb{E}[f(X_t)] E [ f ( X t )] 求时间导数 ∂ t E [ f ( X t ) ] \partial_t \mathbb{E}[f(X_t)] ∂ t E [ f ( X t )] ,利用导数的定义(h → 0 h \to 0 h → 0 时):
∂ t E [ f ( X t ) ] = lim h → 0 1 h E [ f ( X t + h ) − f ( X t ) ]
\partial_t \mathbb{E}[f(X_t)] = \lim_{h \to 0} \frac{1}{h} \mathbb{E}\left[f(X_{t+h}) - f(X_t)\right]
∂ t E [ f ( X t )] = h → 0 lim h 1 E [ f ( X t + h ) − f ( X t ) ] 将步骤 3 的条件期望代入,并交换极限与期望的顺序(因测试函数紧支撑,满足控制收敛定理条件),忽略 h 2 h^2 h 2 项(h → 0 h \to 0 h → 0 时趋于 0),得到:
∂ t E [ f ( X t ) ] = E [ ∇ f ( X t ) T u t ( X t ) + 1 2 σ t 2 Δ f ( X t ) ]
\partial_t \mathbb{E}[f(X_t)] = \mathbb{E}\left[ \nabla f(X_t)^T u_t(X_t) + \frac{1}{2} \sigma_t^2 \Delta f(X_t) \right]
∂ t E [ f ( X t )] = E [ ∇ f ( X t ) T u t ( X t ) + 2 1 σ t 2 Δ f ( X t ) ] 由于 X t ∼ p t X_t \sim p_t X t ∼ p t ,利用无意识统计学家法则,将期望转化为积分:
∂ t ∫ f ( x ) p t ( x ) d x = ∫ ∇ f ( x ) T u t ( x ) p t ( x ) d x + 1 2 σ t 2 ∫ f ( x ) Δ p t ( x ) d x
\partial_t \int f(x) p_t(x) dx = \int \nabla f(x)^T u_t(x) p_t(x) dx + \frac{1}{2} \sigma_t^2 \int f(x) \Delta p_t(x) dx
∂ t ∫ f ( x ) p t ( x ) d x = ∫ ∇ f ( x ) T u t ( x ) p t ( x ) d x + 2 1 σ t 2 ∫ f ( x ) Δ p t ( x ) d x 对等式右边第一项应用积分恒等式 (94),左边交换导数与积分的顺序(因 p t p_t p t 光滑),最终得到:
∫ f ( x ) ∂ t p t ( x ) d x = ∫ f ( x ) ( − div ( p t u t ) ( x ) + σ t 2 2 Δ p t ( x ) ) d x
\int f(x) \partial_t p_t(x) dx = \int f(x) \left( - \text{div}(p_t u_t)(x) + \frac{\sigma_t^2}{2} \Delta p_t(x) \right) dx
∫ f ( x ) ∂ t p t ( x ) d x = ∫ f ( x ) ( − div ( p t u t ) ( x ) + 2 σ t 2 Δ p t ( x ) ) d x 根据测试函数的核心性质 (92),两边积分相等意味着逐点相等,即:
∂ t p t ( x ) = − div ( p t u t ) ( x ) + σ t 2 2 Δ p t ( x ) ∀ x ∈ R d , 0 ≤ t ≤ 1
\partial_t p_t(x) = - \text{div}(p_t u_t)(x) + \frac{\sigma_t^2}{2} \Delta p_t(x) \quad \forall x \in \mathbb{R}^d, \, 0 \leq t \leq 1
∂ t p t ( x ) = − div ( p t u t ) ( x ) + 2 σ t 2 Δ p t ( x ) ∀ x ∈ R d , 0 ≤ t ≤ 1 这正是福克-普朗克方程,必要性得证。
福克-普朗克方程是一类抛物型偏微分方程(PDE)。根据偏微分方程理论,给定固定初始条件(如 p 0 = p init p_0 = p_{\text{init}} p 0 = p init ),这类方程存在唯一解。
若 p t p_t p t 满足福克-普朗克方程,且 X t X_t X t 的真实分布 q t q_t q t 也满足该方程(必要性已证明),同时两者初始条件一致(p 0 = q 0 = p init p_0 = q_0 = p_{\text{init}} p 0 = q 0 = p init ),则由解的唯一性可知 p t = q t p_t = q_t p t = q t 对所有 0 ≤ t ≤ 1 0 \leq t \leq 1 0 ≤ t ≤ 1 成立,即 X t ∼ p t X_t \sim p_t X t ∼ p t 。充分性得证。
当扩散系数 σ t = 0 \sigma_t = 0 σ t = 0 时,福克-普朗克方程中的拉普拉斯项消失,退化为连续性方程:
∂ t p t ( x ) = − div ( p t u t ) ( x )
\partial_t p_t(x) = - \text{div}(p_t u_t)(x)
∂ t p t ( x ) = − div ( p t u t ) ( x ) 这与定理 12 完全一致,说明连续性方程是福克-普朗克方程在无扩散(确定性动力学)情况下的特例。
是否需要我对证明中的某个步骤(如泰勒展开、积分恒等式应用)补充更详细的推导说明?