本文最后更新于 2026年3月3日 晚上
去噪扩散桥模型(DDBMs)作为扩散模型的强大变体,能够在任意给定的两个配对端点分布之间进行插值。尽管在图像翻译等任务中表现优异,DDBMs需要耗费大量计算资源的采样过程——涉及通过数百次网络评估来模拟(随机)微分方程。
本研究基于扩散模型的成熟方法,首次实现了无需额外训练的DDBMs快速采样。我们通过定义在离散化采样时间步上的一类非马尔可夫扩散桥来推广DDBMs,这类模型具有相同的边缘分布和训练目标,能产生从随机到确定性的生成过程,并最终形成扩散桥隐式模型(DBIMs)。DBIMs不仅比传统DDBMs采样器快达25倍,还催生了一种新颖、简洁且富有启发性的常微分方程(ODE)形式,为高阶数值求解器提供了理论支持。更值得注意的是,DBIMs通过在初始采样步骤引入引导噪声,以独特方式保持生成多样性,从而在图像平移任务中实现精准编码、重建和语义插值。
引言
扩散模型(Song 等人,2021c;Sohl-Dickstein 等人,2015;Ho 等人,2020)是一类强大的生成模型,具有高质量生成能力、稳定的训练过程以及对高维度数据的可扩展性。它们在多个领域持续取得最先进的性能,包括图像合成(Dhariwal 和 Nichol,2021;Karras 等人,2022)、语音和视频生成(Chen 等人,2021a;Ho 等人,2022)、可控图像编辑(Nichol 等人,2022;Ramesh 等人,2022;Rombach 等人,2022;Meng 等人,2022)、密度估计(Song 等人,2021b;Kingma 等人,2021;Lu 等人,2022a;Zheng 等人,2023b)以及逆问题求解(Chung 等人,2022;Kawar 等人,2022)。它们还作为现代文本到图像(Rombach 等人,2022)和文本到视频(Gupta 等人,2023;Bao 等人,2024)合成系统的核心组件,开启了人工智能生成内容的时代。
然而,扩散模型并不适合解决诸如图像翻译或修复之类的任务——在这些任务中,需要基于配对的端点来建模两个任意概率分布之间的迁移。扩散模型源于一个在数据和噪声之间逐渐转换的随机过程,其先验分布通常局限于“非信息性”的随机高斯噪声。要将扩散模型应用于存在更具信息性先验的场景(如图像翻译/修复),需要修改生成流程(Meng 等人,2022;Su 等人,2022)或在采样过程中添加额外的引导项(Chung 等人,2022;Kawar 等人,2022)。一方面,这些方法在训练时与任务无关,在推理时可适应多种任务;另一方面,尽管近年来在加速逆问题求解方面取得了进展(Liu 等人,2023a;Pandey 等人,2024),但与基于训练的方法相比,它们不可避免地要么性能欠佳,要么推理过程缓慢且资源密集。在有配对训练数据可用且快速推理至关重要的特定任务场景中,定制化的扩散模型变体变得必不可少。
近年来,去噪扩散桥模型(DDBMs)(Zhou 等人,2023)已成为解决分布转换任务的一种可扩展且前景广阔的方法。通过考虑扩散桥的逆时过程(即以来给定端点为条件的扩散过程),DDBMs 提供了一个用于分布转换的通用框架。尽管 DDBMs 在图像翻译任务中表现出色,能生成高质量且高保真的结果,但其采样过程需要模拟与逆时过程对应的(随机)微分方程。即使引入了混合采样器,要为高分辨率图像生成高保真结果仍需要超过 100 步。相比之下,扩散模型的高效采样器(Song 等人,2021a;Zhang 和 Chen,2022;Lu 等人,2022b)只需约 10 步即可生成合理的样本,因此 DDBMs 相对落后,亟需开发高效的变体。
本研究首次开创性地致力于实现 DDBMs 的加速采样。受扩散模型中成熟方法的启发,无需额外训练的扩散采样加速方法主要侧重于降低随机性(例如,著名的去噪扩散隐式模型 DDIMs)和利用高阶信息(例如,高阶求解器)。我们提出了扩散桥隐式模型(DBIMs),该方法在扩散桥框架内同时探索了这两个方面。首先,我们在离散时间步上研究了 DDBMs 的连续时间正向过程,并将其推广为一系列由方差参数控制的非马尔可夫扩散桥,同时保持与 DDBMs 相同的边际分布和训练目标。其次,诱导的逆生成过程对应于不同随机性程度的采样过程,包括确定性过程。因此,DBIMs 可被视为 DDIMs 的桥接对应物和扩展。此外,在连续时间极限下,DBIMs 可以诱导出一种新颖的常微分方程(ODE),该方程与 DDBMs 中的概率流 ODE(PF-ODE)相关,但形式更简单且效率显著更高。这种诱导的 ODE 还有助于开发新型高阶数值扩散桥求解器,以实现更快的收敛。
我们通过将 DBIMs 应用于图像翻译和修复任务,证明了其优越性——与 DDBMs 相比,它们的采样速度最高可达 25 倍,并且在具有挑战性的高分辨率数据集上实现了最先进的性能。与传统的扩散采样不同,DBIMs 的初始步骤强制引入带有启动噪声的随机性,以避免因桥接的固定起点而产生的奇异性问题。通过将启动噪声视为潜变量,DBIMs 在保持典型生成模型的生成多样性的同时,能够在数据空间中实现忠实的编码、重建以及语义上有意义的插值。
图 1:在 ImageNet 256×256 数据集(Deng 等人,2009)上的修复结果,其中 DDBM(Zhou 等人,2023)使用 100 次函数评估(NFE),而我们的 DBIM 仅使用 10 次 NFE。(a)条件;(b)DDBM(NFE=100,FID=6.46);(c)DBIM(η=0,NFE=10,FID=4.51);(d)DBIM(3 阶,NFE=10,FID=4.34)
预备知识
2.1 扩散模型
给定一个d维数据分布 q 0 ( x 0 ) q_0(x_0) q 0 ( x 0 ) ,扩散模型(Song等人,2021c;Sohl-Dickstein等人,2015;Ho等人,2020)通过定义一个从 x 0 ∼ q 0 x_0 \sim q_0 x 0 ∼ q 0 开始的前向随机微分方程(SDE)来构建扩散过程:
d x t = f ( t ) x t d t + g ( t ) d w t ( 1 ) dx_t = f(t)x_t dt + g(t)dw_t \quad (1)
d x t = f ( t ) x t d t + g ( t ) d w t ( 1 )
其中,t ∈ [ 0 , T ] t \in [0, T] t ∈ [ 0 , T ] (T T T 为某个有限时间范围),f , g : [ 0 , T ] → R f, g: [0, T] \to \mathbb{R} f , g : [ 0 , T ] → R 是标量值的漂移项和扩散项,w t ∈ R d w_t \in \mathbb{R}^d w t ∈ R d 是标准维纳过程。作为线性SDE,通过伊藤公式(Itô,1951),前向过程具有解析的高斯转移核:
q t ∣ 0 ( x t ∣ x 0 ) = N ( α t x 0 , σ t 2 I ) ( 2 ) q_{t|0}(x_t | x_0) = \mathcal{N}(\alpha_t x_0, \sigma_t^2 I) \quad (2)
q t ∣0 ( x t ∣ x 0 ) = N ( α t x 0 , σ t 2 I ) ( 2 )
其中,α t \alpha_t α t 、σ t \sigma_t σ t 被称为噪声调度,满足 f ( t ) = d log α t d t f(t) = \frac{d \log \alpha_t}{dt} f ( t ) = d t d l o g α t ,g 2 ( t ) = d σ t 2 d t − 2 d log α t d t σ t 2 g^2(t) = \frac{d \sigma_t^2}{dt} - 2 \frac{d \log \alpha_t}{dt} \sigma_t^2 g 2 ( t ) = d t d σ t 2 − 2 d t d l o g α t σ t 2 (Kingma等人,2021)。前向SDE伴随有一系列关于 { x t } t = 0 T \{x_t\}_{t=0}^T { x t } t = 0 T 的边缘分布 { q t } t = 0 T \{q_t\}_{t=0}^T { q t } t = 0 T ,且 f f f 、g g g 经过合理设计,使得终端分布近似为纯高斯分布,即 q T ( x T ) ≈ N ( 0 , σ T 2 I ) q_T(x_T) \approx \mathcal{N}(0, \sigma_T^2 I) q T ( x T ) ≈ N ( 0 , σ T 2 I ) 。
为了从数据分布 q 0 ( x 0 ) q_0(x_0) q 0 ( x 0 ) 中采样,我们可以从 t = T t=T t = T 到 t = 0 t=0 t = 0 求解反向SDE或概率流ODE(Song等人,2021c):
d x t = [ f ( t ) x t − g 2 ( t ) ∇ x t log q t ( x t ) ] d t + g ( t ) d w ˉ t , ( 3 ) dx_t = \left[f(t)x_t - g^2(t) \nabla_{x_t} \log q_t(x_t)\right]dt + g(t)d\bar{w}_t, \quad (3)
d x t = [ f ( t ) x t − g 2 ( t ) ∇ x t log q t ( x t ) ] d t + g ( t ) d w ˉ t , ( 3 )
d x t = [ f ( t ) x t − 1 2 g 2 ( t ) ∇ x t log q t ( x t ) ] d t . ( 4 ) dx_t = \left[f(t)x_t - \frac{1}{2}g^2(t) \nabla_{x_t} \log q_t(x_t)\right]dt. \quad (4)
d x t = [ f ( t ) x t − 2 1 g 2 ( t ) ∇ x t log q t ( x t ) ] d t . ( 4 )
它们与前向SDE共享相同的边缘分布 { q t } t = 0 T \{q_t\}_{t=0}^T { q t } t = 0 T ,其中 w ˉ t \bar{w}_t w ˉ t 是反向时间维纳过程,唯一的未知项 ∇ x t log q t ( x t ) \nabla_{x_t} \log q_t(x_t) ∇ x t log q t ( x t ) 是边缘密度 q t q_t q t 的分数函数。通过去噪分数匹配(DSM)(Vincent,2011),可以参数化一个分数预测网络 s θ ( x t , t ) s_\theta(x_t, t) s θ ( x t , t ) ,使其最小化:
E t E x 0 ∼ q 0 ( x 0 ) E x t ∼ q t ∣ 0 ( x t ∣ x 0 ) [ w ( t ) ∥ s θ ( x t , t ) − ∇ x t log q t ∣ 0 ( x t ∣ x 0 ) ∥ 2 2 ] \mathbb{E}_t \mathbb{E}_{x_0 \sim q_0(x_0)} \mathbb{E}_{x_t \sim q_{t|0}(x_t | x_0)} \left[ w(t) \| s_\theta(x_t, t) - \nabla_{x_t} \log q_{t|0}(x_t | x_0) \|_2^2 \right]
E t E x 0 ∼ q 0 ( x 0 ) E x t ∼ q t ∣0 ( x t ∣ x 0 ) [ w ( t ) ∥ s θ ( x t , t ) − ∇ x t log q t ∣0 ( x t ∣ x 0 ) ∥ 2 2 ]
其中,q t ∣ 0 q_{t|0} q t ∣0 是解析的前向转移核,w ( t ) w(t) w ( t ) 是正加权函数。将 s θ s_\theta s θ 代入反向SDE和概率流ODE中,可以得到参数化的扩散SDE和扩散ODE。目前已有多种专门用于扩散SDE或ODE的求解器(Song等人,2021a;Zhang和Chen,2022;Lu等人,2022b;Gonzalez等人,2023)。
2.2 去噪扩散桥模型
去噪扩散桥模型(DDBMs)(Zhou等人,2023)考虑通过杜布h变换(Doob和Doob,1984),驱动式(1)中的扩散过程以概率1到达特定点 y ∈ R d y \in \mathbb{R}^d y ∈ R d :
d x t = f ( t ) x t d t + g 2 ( t ) ∇ x t log q ( x T = y ∣ x t ) + g ( t ) d w t , x 0 ∼ q 0 = p data , x T = y . ( 5 ) dx_t = f(t)x_t dt + g^2(t) \nabla_{x_t} \log q(x_T = y | x_t) + g(t)dw_t, \quad x_0 \sim q_0 = p_{\text{data}}, \quad x_T = y. \quad (5)
d x t = f ( t ) x t d t + g 2 ( t ) ∇ x t log q ( x T = y ∣ x t ) + g ( t ) d w t , x 0 ∼ q 0 = p data , x T = y . ( 5 )
与扩散模型中端点局限于高斯噪声不同,这里的端点 y y y 可以选择为信息丰富的先验(例如图像恢复任务中的退化图像)。给定起始点 x 0 x_0 x 0 ,式(5)中的过程也具有解析的前向转移核:
q ( x t ∣ x 0 , x T ) = N ( a t x T + b t x 0 , c t 2 I ) , q(x_t | x_0, x_T) = \mathcal{N}(a_t x_T + b_t x_0, c_t^2 I),
q ( x t ∣ x 0 , x T ) = N ( a t x T + b t x 0 , c t 2 I ) ,
a t = α t α T SNR T SNR t , b t = α t ( 1 − SNR T SNR t ) , c t 2 = σ t 2 ( 1 − SNR T SNR t ) ( 6 ) a_t = \frac{\alpha_t}{\alpha_T} \frac{\text{SNR}_T}{\text{SNR}_t}, \quad b_t = \alpha_t \left(1 - \frac{\text{SNR}_T}{\text{SNR}_t}\right), \quad c_t^2 = \sigma_t^2 \left(1 - \frac{\text{SNR}_T}{\text{SNR}_t}\right) \quad (6)
a t = α T α t SNR t SNR T , b t = α t ( 1 − SNR t SNR T ) , c t 2 = σ t 2 ( 1 − SNR t SNR T ) ( 6 )
这形成了一个扩散桥,其中 SNR t = α t 2 / σ t 2 \text{SNR}_t = \alpha_t^2 / \sigma_t^2 SNR t = α t 2 / σ t 2 是时间 t t t 的信噪比。DDBMs表明,式(5)的前向过程与从 x T = y x_T = y x T = y 开始的反向SDE和概率流ODE相关联:
d x t = [ f ( t ) x t − g 2 ( t ) ( ∇ x t log q ( x t ∣ x T = y ) − ∇ x t log q T ∣ t ( x T = y ∣ x t ) ) ] d t + g ( t ) d w ˉ t , ( 7 ) dx_t = \left[ f(t)x_t - g^2(t) \left( \nabla_{x_t} \log q(x_t | x_T = y) - \nabla_{x_t} \log q_{T|t}(x_T = y | x_t) \right) \right] dt + g(t)d\bar{w}_t, \quad (7)
d x t = [ f ( t ) x t − g 2 ( t ) ( ∇ x t log q ( x t ∣ x T = y ) − ∇ x t log q T ∣ t ( x T = y ∣ x t ) ) ] d t + g ( t ) d w ˉ t , ( 7 )
d x t = [ f ( t ) x t − g 2 ( t ) ( 1 2 ∇ x t log q ( x t ∣ x T = y ) − ∇ x t log q T ∣ t ( x T = y ∣ x t ) ) ] d t . ( 8 ) dx_t = \left[ f(t)x_t - g^2(t) \left( \frac{1}{2} \nabla_{x_t} \log q(x_t | x_T = y) - \nabla_{x_t} \log q_{T|t}(x_T = y | x_t) \right) \right] dt. \quad (8)
d x t = [ f ( t ) x t − g 2 ( t ) ( 2 1 ∇ x t log q ( x t ∣ x T = y ) − ∇ x t log q T ∣ t ( x T = y ∣ x t ) ) ] d t . ( 8 )
它们与前向过程共享相同的边缘分布 { q ( x t ∣ x T = y ) } t = 0 T \{q(x_t | x_T = y)\}_{t=0}^T { q ( x t ∣ x T = y ) } t = 0 T ,其中 w ˉ t \bar{w}_t w ˉ t 是反向时间维纳过程,q T ∣ t q_{T|t} q T ∣ t 与式(2)类似是解析已知的,唯一的未知项 ∇ x t log q ( x t ∣ x T = y ) \nabla_{x_t} \log q(x_t | x_T = y) ∇ x t log q ( x t ∣ x T = y ) 是桥分数函数。去噪桥分数匹配(DBSM)被提出用于通过参数化网络 s θ ( x t , t , y ) s_\theta(x_t, t, y) s θ ( x t , t , y ) 学习未知的分数项 q ( x t ∣ x T = y ) q(x_t | x_T = y) q ( x t ∣ x T = y ) ,通过最小化:
L w ( θ ) = E t E ( x 0 , y ) ∼ p data ( x 0 , y ) E x t ∼ q ( x t ∣ x 0 , x T = y ) [ w ( t ) ∥ s θ ( x t , t , y ) − ∇ x t log q ( x t ∣ x 0 , x T = y ) ∥ 2 2 ] ( 9 ) \mathcal{L}_w(\theta) = \mathbb{E}_t \mathbb{E}_{(x_0, y) \sim p_{\text{data}}(x_0, y)} \mathbb{E}_{x_t \sim q(x_t | x_0, x_T = y)} \left[ w(t) \| s_\theta(x_t, t, y) - \nabla_{x_t} \log q(x_t | x_0, x_T = y) \|_2^2 \right] \quad (9)
L w ( θ ) = E t E ( x 0 , y ) ∼ p data ( x 0 , y ) E x t ∼ q ( x t ∣ x 0 , x T = y ) [ w ( t ) ∥ s θ ( x t , t , y ) − ∇ x t log q ( x t ∣ x 0 , x T = y ) ∥ 2 2 ] ( 9 )
其中,q ( x t ∣ x 0 , x T = y ) q(x_t | x_0, x_T = y) q ( x t ∣ x 0 , x T = y ) 是式(6)中的前向转移核, w ( t ) w(t) w ( t ) 是正加权函数。为了从式(7)和式(8)的扩散桥中采样,DDBMs借鉴扩散模型中的Heun采样器(Karras等人,2022),提出了一种高阶混合采样器,通过交替模拟ODE和SDE步骤来提高样本质量。然而,这种采样器并非专门针对扩散桥设计,在开发高效扩散采样器方面缺乏理论见解。
3 通过非马尔可夫扩散桥构建生成模型
我们首先在一组用于反向采样的离散时间步 0 = t 0 < t 1 < ⋯ < t N − 1 < t N = T 0 = t_0 < t_1 < \cdots < t_{N-1} < t_N = T 0 = t 0 < t 1 < ⋯ < t N − 1 < t N = T 上考察扩散桥的前向过程。由于桥分数 ∇ x t log q ( x t ∣ x T ) \nabla_{x_t} \log q(x_t|x_T) ∇ x t log q ( x t ∣ x T ) 仅依赖于边缘分布 { q ( x t n ∣ x T ) } n = 0 N − 1 \{q(x_{t_n}|x_T)\}_{n=0}^{N-1} { q ( x t n ∣ x T ) } n = 0 N − 1 ,因此我们可以构建替代概率模型,这些模型能生成新的采样过程,同时复用已学习的桥分数 s θ ( x t , t , x T ) s_\theta(x_t, t, x_T) s θ ( x t , t , x T ) ,只要它们在 N N N 个边缘分布 { q ( x t n ∣ x T ) } n = 0 N − 1 \{q(x_{t_n}|x_T)\}_{n=0}^{N-1} { q ( x t n ∣ x T ) } n = 0 N − 1 上保持一致即可。
3.1 作为前向过程的非马尔可夫扩散桥
我们考虑一族由方差参数 ρ ∈ R N − 1 \rho \in \mathbb{R}^{N-1} ρ ∈ R N − 1 控制的概率分布 q ( ρ ) ( x t 0 : N − 1 ∣ x T ) q^{(\rho)}(x_{t_0:N-1}|x_T) q ( ρ ) ( x t 0 : N − 1 ∣ x T ) :
q ( ρ ) ( x t 0 : N − 1 ∣ x T ) = q 0 ( x t 0 ) ∏ n = 1 N − 1 q ( ρ ) ( x t n ∣ x 0 , x t n + 1 , x T ) (10) q^{(\rho)}(x_{t_0:N-1}|x_T) = q_0(x_{t_0}) \prod_{n=1}^{N-1} q^{(\rho)}(x_{t_n}|x_0, x_{t_{n+1}}, x_T) \tag{10}
q ( ρ ) ( x t 0 : N − 1 ∣ x T ) = q 0 ( x t 0 ) n = 1 ∏ N − 1 q ( ρ ) ( x t n ∣ x 0 , x t n + 1 , x T ) ( 10 )
其中,q 0 q_0 q 0 是 0 0 0 时刻处的数据分布,且对于 1 ≤ n ≤ N − 1 1 \leq n \leq N-1 1 ≤ n ≤ N − 1 :
q ( ρ ) ( x t n ∣ x 0 , x t n + 1 , x T ) = N ( a t n x T + b t n x 0 + c t n 2 − ρ n 2 ⋅ x t n + 1 − a t n + 1 x T − b t n + 1 x 0 c t n + 1 , ρ n 2 I ) (11) q^{(\rho)}(x_{t_n}|x_0, x_{t_{n+1}}, x_T) = \mathcal{N}\left(a_{t_n} x_T + b_{t_n} x_0 + \sqrt{c_{t_n}^2 - \rho_n^2} \cdot \frac{x_{t_{n+1}} - a_{t_{n+1}} x_T - b_{t_{n+1}} x_0}{c_{t_{n+1}}}, \rho_n^2 I\right) \tag{11}
q ( ρ ) ( x t n ∣ x 0 , x t n + 1 , x T ) = N ( a t n x T + b t n x 0 + c t n 2 − ρ n 2 ⋅ c t n + 1 x t n + 1 − a t n + 1 x T − b t n + 1 x 0 , ρ n 2 I ) ( 11 )
这里,ρ n \rho_n ρ n 是 ρ \rho ρ 的第 n n n 个元素,满足 ρ N − 1 = c t N − 1 \rho_{N-1} = c_{t_{N-1}} ρ N − 1 = c t N − 1 ;a t a_t a t 、b t b_t b t 、c t c_t c t 是与噪声调度相关的项,如 DDBM 中所定义。
直观而言,这一构造在降低桥的方差(噪声水平)的同时,融入了来自上一步的额外噪声成分。通过这种构造,我们可证明 q ( ρ ) q^{(\rho)} q ( ρ ) 与 DDBM 中的前向过程 q q q 在边缘分布上保持一致。
其中ρn表示ρ的第n个元素,满足ρN−1 = ctN−1的条件,而at、bt、ct是与噪声调度相关的参数,如原始扩散桥方程(公式(6))所定义。
直观来看,这一过程在融入上一步骤额外噪音成分的同时,降低了桥梁的方差(噪声水平)。在此构建下,我们可以证明q(ρ)保持了与原始前向过程q(由公式(5)控制)在边缘分布上的一致性。
<span style="color:red;">命题1(边缘分布的保持性)对于 0 ≤ n ≤ N − 1 0 \leq n \leq N-1 0 ≤ n ≤ N − 1 ,有:
q ( ρ ) ( x t n ∣ x T ) = q ( x t n ∣ x T ) q^{(\rho)}(x_{t_n}|x_T) = q(x_{t_n}|x_T)
q ( ρ ) ( x t n ∣ x T ) = q ( x t n ∣ x T )
式 <a href="#eq:10">(10)</a> 中 q ( ρ ) q^{(\rho)} q ( ρ ) 表示推断过程。前向过程 q ( ρ ) ( x t n + 1 ∣ x 0 , x t n , x T ) q^{(\rho)}(x_{t_{n+1}}|x_0, x_{t_n}, x_T) q ( ρ ) ( x t n + 1 ∣ x 0 , x t n , x T ) 可通过 Bayes 公式推导得到。由于 q ( ρ ) q^{(\rho)} q ( ρ ) 中的 x t n + 1 x_{t_{n+1}} x t n + 1 可同时依赖于 x t n x_{t_n} x t n 和 x 0 x_0 x 0 ,我们称之为非马尔可夫扩散桥 (non-Markovian diffusion bridges);与之相对,马尔可夫扩散桥(如布朗桥、DDBM中前向SDE所定义的扩散桥)应满足 q ( x t n + 1 ∣ x 0 , x t n , x T ) = q ( x t n + 1 ∣ x t n , x T ) q(x_{t_{n+1}}|x_0, x_{t_n}, x_T) = q(x_{t_{n+1}}|x_{t_n}, x_T) q ( x t n + 1 ∣ x 0 , x t n , x T ) = q ( x t n + 1 ∣ x t n , x T ) 。
3.2 反向生成过程与等价训练目标
通过将式(10)中未知的 x 0 x_0 x 0 替换为数据预测器 x θ ( x t , t , x T ) x_\theta(x_t, t, x_T) x θ ( x t , t , x T ) ,式(10)可自然转化为参数化且可学习的生成模型。直观而言,根据式(6),扩散桥上的 x t x_t x t 是 x T x_T x T 、x 0 x_0 x 0 和一些随机高斯噪声的加权混合,其中权重 a t a_t a t 、b t b_t b t 、c t c_t c t 由时间步 t t t 决定。网络 x θ x_\theta x θ 的训练目标是在给定 x t x_t x t 、x T x_T x T 和 t t t 的情况下恢复干净数据 x 0 x_0 x 0 。
生成过程定义
具体而言,我们定义从x T x_T x T 开始的生成过程为:
p θ ( x t n ∣ x t n + 1 , x T ) = { N ( x θ ( x t 1 , t 1 , x T ) , ρ 0 2 I ) , n = 0 q ( ρ ) ( x t n ∣ x θ ( x t n + 1 , t n + 1 , x T ) , x t n + 1 , x T ) , 1 ≤ n ≤ N − 1 (12) p_\theta(x_{t_n}|x_{t_{n+1}}, x_T) = \begin{cases}
\mathcal{N}(x_\theta(x_{t_1}, t_1, x_T), \rho_0^2 I), & n = 0 \\
q^{(\rho)}(x_{t_n}|x_\theta(x_{t_{n+1}}, t_{n+1}, x_T), x_{t_{n+1}}, x_T), & 1 \leq n \leq N-1
\end{cases} \tag{12}
p θ ( x t n ∣ x t n + 1 , x T ) = { N ( x θ ( x t 1 , t 1 , x T ) , ρ 0 2 I ) , q ( ρ ) ( x t n ∣ x θ ( x t n + 1 , t n + 1 , x T ) , x t n + 1 , x T ) , n = 0 1 ≤ n ≤ N − 1 ( 12 )
联合分布为 p θ ( x t 0 : N − 1 ∣ x T ) = ∏ n = 0 N − 1 p θ ( x t n ∣ x t n + 1 , x T ) p_\theta(x_{t_0:N-1}|x_T) = \prod_{n=0}^{N-1} p_\theta(x_{t_n}|x_{t_{n+1}}, x_T) p θ ( x t 0 : N − 1 ∣ x T ) = ∏ n = 0 N − 1 p θ ( x t n ∣ x t n + 1 , x T ) 。为优化网络参数 θ \theta θ ,我们采用与DDPMs(Ho等人,2020)类似的变分推断目标,不同之处在于这些分布以x T x_T x T 为条件:
J ( ρ ) ( θ ) = E q ( x T ) E q ( ρ ) ( x t 0 : N − 1 ∣ x T ) [ log q ( ρ ) ( x t 1 : N − 1 ∣ x 0 , x T ) − log p θ ( x t 0 : N − 1 ∣ x T ) ] (13) \mathcal{J}^{(\rho)}(\theta) = \mathbb{E}_{q(x_T)} \mathbb{E}_{q^{(\rho)}(x_{t_0:N-1}|x_T)} \left[ \log q^{(\rho)}(x_{t_1:N-1}|x_0, x_T) - \log p_\theta(x_{t_0:N-1}|x_T) \right] \tag{13}
J ( ρ ) ( θ ) = E q ( x T ) E q ( ρ ) ( x t 0 : N − 1 ∣ x T ) [ log q ( ρ ) ( x t 1 : N − 1 ∣ x 0 , x T ) − log p θ ( x t 0 : N − 1 ∣ x T ) ] ( 13 )
目标函数等价性
式(9)中DDBM的目标函数 L w \mathcal{L}_w L w 似乎与 J ( ρ ) \mathcal{J}^{(\rho)} J ( ρ ) 不同:它们分别定义在连续和离散时间步上;源自分数匹配和变分推断;对分数和数据预测采用不同的参数化方式¹。然而,通过聚焦于离散时间步并转换参数化方式,我们证明了它们的等价性。
扩散桥模型的参数化通常与分数预测不同,但可转换为分数预测。详见附录F.1。
表1:不同扩散模型与扩散桥模型的对比
<span style="color:red;">命题2(训练等价性)对于 ρ > 0 \rho > 0 ρ > 0 ,存在特定权重 γ \gamma γ ,使得在离散时间步 { t n } n = 1 N \{t_n\}_{n=1}^N { t n } n = 1 N 上有:
J ( ρ ) ( θ ) = L γ ( θ ) + C \mathcal{J}^{(\rho)}(\theta) = \mathcal{L}_\gamma(\theta) + C
J ( ρ ) ( θ ) = L γ ( θ ) + C
其中 C C C 是与 θ \theta θ 无关的常数。此外, L γ ( θ ) \mathcal{L}_\gamma(\theta) L γ ( θ ) 中的桥分数预测器 s θ s_\theta s θ 与 J ( ρ ) ( θ ) \mathcal{J}^{(\rho)}(\theta) J ( ρ ) ( θ ) 中的数据预测器 x θ x_\theta x θ 存在如下关系:
s θ ( x t , t , x T ) = − x t − a t x T − b t x θ ( x t , t , x T ) c t 2 (14) s_\theta(x_t, t, x_T) = -\frac{x_t - a_t x_T - b_t x_\theta(x_t, t, x_T)}{c_t^2} \tag{14}
s θ ( x t , t , x T ) = − c t 2 x t − a t x T − b t x θ ( x t , t , x T ) ( 14 )
(证明见附录B.2)
尽管权重 γ \gamma γ 可能与训练 s θ s_\theta s θ 时实际使用的权重 w w w 不完全匹配,但这种差异并不影响我们对 s θ s_\theta s θ 的使用(附录C.2)。因此,复用通过 L \mathcal{L} L 训练的网络,同时利用不同的 ρ \rho ρ 来提高采样效率是合理的。
4 基于广义扩散桥的采样
既然我们已经确认了将广义扩散桥 p θ p_\theta p θ 应用于预训练DDBMs的合理性,并建立了相关理论基础,现在我们可以通过方差参数 ρ \rho ρ 控制一系列推理过程。这使我们能够探索由此产生的采样程序以及 ρ \rho ρ 的影响,以追求更好、更高效的生成效果。
4.1 扩散桥隐式模型(DBIMs)
假设我们在离散时间步 0 = t 0 < t 1 < ⋯ < t N − 1 < t N = T 0 = t_0 < t_1 < \cdots < t_{N-1} < t_N = T 0 = t 0 < t 1 < ⋯ < t N − 1 < t N = T 上进行反向采样。无论桥模型是在离散时间步(Liu等人,2023b)还是连续时间步(Zhou等人,2023)上训练的,采样步骤的数量 N N N 和调度都可以独立于模型训练时的原始时间步。根据式(12)中 p θ p_\theta p θ 的生成过程,从 t n + 1 t_{n+1} t n + 1 到 t n t_n t n 的更新规则描述为:
x t n = a t n x T + b t n x ^ 0 + c t n 2 − ρ n 2 x t n + 1 − a t n + 1 x T − b t n + 1 x ^ 0 c t n + 1 ⏟ 预测噪声 ϵ ^ + ρ n ϵ , ϵ ∼ N ( 0 , I ) (15) x_{t_n} = a_{t_n} x_T + b_{t_n} \hat{x}_0 + \sqrt{c_{t_n}^2 - \rho_n^2} \underbrace{\frac{x_{t_{n+1}} - a_{t_{n+1}} x_T - b_{t_{n+1}} \hat{x}_0}{c_{t_{n+1}}}}_{\text{预测噪声}\ \hat{\epsilon}} + \rho_n \epsilon,\ \epsilon \sim \mathcal{N}(0, I) \tag{15}
x t n = a t n x T + b t n x ^ 0 + c t n 2 − ρ n 2 预测噪声 ϵ ^ c t n + 1 x t n + 1 − a t n + 1 x T − b t n + 1 x ^ 0 + ρ n ϵ , ϵ ∼ N ( 0 , I ) ( 15 )
其中,x ^ 0 = x θ ( x t n + 1 , t n + 1 , x T ) \hat{x}_0 = x_\theta(x_{t_{n+1}}, t_{n+1}, x_T) x ^ 0 = x θ ( x t n + 1 , t n + 1 , x T ) 表示预测的时刻 0 0 0 处的干净数据。
直观来看,上式类似于 DDBM 的前向转移核 x t = a t x T + b t x 0 + c t ϵ , ϵ ∼ N ( 0 , I ) x_t = a_t x_T + b_t x_0 + c_t \epsilon,\ \epsilon \sim \mathcal{N}(0, I) x t = a t x T + b t x 0 + c t ϵ , ϵ ∼ N ( 0 , I ) 。相比之下,这里的 x 0 x_0 x 0 被替换为预测值 x ^ 0 \hat{x}_0 x ^ 0 ,且标准高斯噪声 ϵ \epsilon ϵ 的一部分来自预测噪声 ϵ ^ \hat{\epsilon} ϵ ^ 。预测噪声 ϵ ^ \hat{\epsilon} ϵ ^ 由上一时间步的 x t n + 1 x_{t_{n+1}} x t n + 1 推导而来,并且可以通过预测的干净数据 x ^ 0 \hat{x}_0 x ^ 0 表示。
方差参数的影响 我们通过考虑两种极端情况,从理论角度研究方差参数 ρ \rho ρ 的影响。首先,我们注意到,当对于每个 0 ≤ n ≤ N − 1 0 \leq n \leq N-1 0 ≤ n ≤ N − 1 ,ρ n = σ t n 1 − SNR t n + 1 SNR t n \rho_n = \sigma_{t_n} \sqrt{1 - \frac{\text{SNR}_{t_{n+1}}}{\text{SNR}_{t_n}}} ρ n = σ t n 1 − SNR t n SNR t n + 1 时,式(15)中的 x T x_T x T 项会被消去。在这种情况下,式(4.1)中的前向过程成为马尔可夫桥(详见附录C.1)。此外,推理过程将摆脱 x T x_T x T 的影响,简化为 p θ ( x t n ∣ x t n + 1 ) p_\theta(x_{t_n} | x_{t_{n+1}}) p θ ( x t n ∣ x t n + 1 ) ,类似于DDPMs(Ho等人,2020)中的采样机制。其次,当对于每个 0 ≤ n ≤ N − 1 0 \leq n \leq N-1 0 ≤ n ≤ N − 1 ,ρ n = 0 \rho_n = 0 ρ n = 0 时,推理过程将不包含随机噪声,由确定性迭代更新构成,这是隐式概率模型的特征(Mohamed & Lakshminarayanan,2016)。因此,我们将由此产生的模型命名为扩散桥隐式模型(DBIMs),与去噪扩散隐式模型(DDIMs)(Song等人,2021a)相呼应。如表1所示,DBIMs是DDIMs在桥模型场景下的对应物和扩展。
当我们选择介于这两种边界情况之间的 ρ \rho ρ 时,可以得到具有中等非零随机性的非马尔可夫扩散桥。这种桥可能产生更优的样本质量。我们在6.1节中提供了详细的消融实验。
确定性采样初始步骤的奇异性 关于DBIMs,需要注意的一个重要方面是,当 ρ = 0 \rho = 0 ρ = 0 时,其初始步骤存在奇异性,这一特性与扩散模型中的DDIMs有本质区别。具体来说,在初始步骤中,t n + 1 = T t_{n+1} = T t n + 1 = T ,式(15)分母中的 c t n + 1 c_{t_{n+1}} c t n + 1 等于0。这一现象可以直观理解为:给定固定的起始点 x T x_T x T ,对于 t < T t < T t < T ,变量 x t x_t x t 通常仍然是随机分布的(边缘分布 p θ ( x t ∣ x T ) p_\theta(x_t | x_T) p θ ( x t ∣ x T ) 不是狄拉克分布)。例如,在图像修复任务中,对于一个固定的带掩码图像,应该存在多种合理的完整图像。然而,完全确定性的采样过程会破坏这种随机性。
为了保证理论上的稳健性,我们在初始步骤中采用另一种边界选择 ρ n = σ t n 1 − SNR t n + 1 SNR t n \rho_n = \sigma_{t_n} \sqrt{1 - \frac{\text{SNR}_{t_{n+1}}}{\text{SNR}_{t_n}}} ρ n = σ t n 1 − SNR t n SNR t n + 1 ,这与我们之前 ρ N − 1 = c t N − 1 \rho_{N-1} = c_{t_{N-1}} ρ N − 1 = c t N − 1 的限制一致。这将引入一个额外的标准高斯噪声 ϵ \epsilon ϵ ,我们称之为启动噪声(booting noise)。它解释了在给定固定 x T x_T x T 的情况下最终样本 x 0 x_0 x 0 的随机性,并且可以被视为潜在变量。我们在图2中展示了完整的DBIM流程。
4.2 与概率流ODE的联系
直观上,确定性采样可以与求解常微分方程(ODE)相关联。通过在式(15)中设置 ρ = 0 \rho = 0 ρ = 0 、t n + 1 = t t_{n+1} = t t n + 1 = t 且 t n + 1 − t n = Δ t t_{n+1} - t_n = \Delta t t n + 1 − t n = Δ t ,DBIM的更新规则可以重组为
x t − Δ t c t − Δ t = x t c t + ( a t − Δ t c t − Δ t − a t c t ) x T + ( b t − Δ t c t − Δ t − b t c t ) x θ ( x t , t , x T ) \frac{x_{t-\Delta t}}{c_{t-\Delta t}} = \frac{x_t}{c_t} + \left( \frac{a_{t-\Delta t}}{c_{t-\Delta t}} - \frac{a_t}{c_t} \right) x_T + \left( \frac{b_{t-\Delta t}}{c_{t-\Delta t}} - \frac{b_t}{c_t} \right) x_\theta(x_t, t, x_T)
c t − Δ t x t − Δ t = c t x t + ( c t − Δ t a t − Δ t − c t a t ) x T + ( c t − Δ t b t − Δ t − c t b t ) x θ ( x t , t , x T )
由于 a t a_t a t 、b t b_t b t 、c t c_t c t 是关于时间 t t t 的连续函数,因此比值 a t c t \frac{a_t}{c_t} c t a t 和 b t c t \frac{b_t}{c_t} c t b t 也是关于 t t t 的连续函数。因此,DBIM(ρ = 0 \rho = 0 ρ = 0 )可以被视为以下常微分方程(ODE)的欧拉离散化:
d ( x t c t ) = x T d ( a t c t ) + x θ ( x t , t , x T ) d ( b t c t ) (16) d\left( \frac{x_t}{c_t} \right) = x_T d\left( \frac{a_t}{c_t} \right) + x_\theta(x_t, t, x_T) d\left( \frac{b_t}{c_t} \right) \tag{16}
d ( c t x t ) = x T d ( c t a t ) + x θ ( x t , t , x T ) d ( c t b t ) ( 16 )
尽管它不像常规ODE那样包含 d t dt d t ,但通过导数的链式法则,两个无穷小项 d ( a t c t ) d\left( \frac{a_t}{c_t} \right) d ( c t a t ) 和 d ( b t c t ) d\left( \frac{b_t}{c_t} \right) d ( c t b t ) 可以用 d t dt d t 表示。这种ODE形式还表明,通过足够多的离散化步骤,我们可以反转采样过程并获得观测数据的编码,这对于插值或其他下游任务可能很有用。
在DDBMs中,提出了涉及 d x t dx_t d x t 和 d t dt d t 的概率流ODE(式(8)),并用于确定性采样。我们在以下命题中表明,我们的式(16)中的ODE无需依赖高阶的科尔莫戈罗夫前向方程(或福克-普朗克方程)即可精确导出该概率流ODE。
<span style="color:red;">命题3(与概率流ODE的等价性) 假设 s θ ( x t , t , x T ) s_\theta(x_t, t, x_T) s θ ( x t , t , x T ) 被学习为真实的桥分数 ∇ x t log q ( x t ∣ x T ) \nabla_{x_t} \log q(x_t | x_T) ∇ x t log q ( x t ∣ x T ) ,且x θ x_\theta x θ 通过式(14)与 s θ s_\theta s θ 相关联,则式(16)可以转换为DDBMs中提出的概率流ODE。
通过这种选择,在初始步骤 n = N − 1 n = N-1 n = N − 1 中,我们有 ρ n = σ t n 1 − SNR t T SNR t n = c t n ⇒ c t n 2 − ρ n 2 = 0 \rho_n = \sigma_{t_n} \sqrt{1 - \frac{\text{SNR}_{t_T}}{\text{SNR}_{t_n}}} = c_{t_n} \Rightarrow \sqrt{c_{t_n}^2 - \rho_n^2} = 0 ρ n = σ t n 1 − SNR t n SNR t T = c t n ⇒ c t n 2 − ρ n 2 = 0 ,因此式(15)分母中的 c t n + 1 c_{t_{n+1}} c t n + 1 将被消去。
虽然从我们的ODE转换到概率流ODE很直接,但反向转换可能并不简单,需要复杂的工具,如指数积分器(Calvo & Palencia,2006;Hochbruck等人,2009)(附录C.4)。我们强调我们的ODE与DDBMs中的概率流ODE的区别:(1)我们的ODE具有新颖且极其简洁的形式。(2)尽管理论上等价,但我们的ODE描述的是 x t c t \frac{x_t}{c_t} c t x t 的演化而非 x t x_t x t ,其离散化是相对于 d ( a t c t ) d\left( \frac{a_t}{c_t} \right) d ( c t a t ) 和 d ( b t c t ) d\left( \frac{b_t}{c_t} \right) d ( c t b t ) 而非 d t dt d t 进行的。(3)从经验上看,DBIMs(ρ = 0 \rho = 0 ρ = 0 )被证明比概率流ODE的欧拉离散化高效得多,从而大幅加速了DDBMs。(4)与完全确定性的ODE不同,DBIMs能够在不同的随机水平下,在相同的采样步骤数下达到最佳生成质量。
4.3 高阶方法扩展
我们的ODE(式(16))的简洁性和高效性还启发了专为DDBMs设计的新型高阶数值求解器,与一阶欧拉离散化相比,可能带来更快的收敛速度。具体来说,通过时间变量替换 λ t = log ( b t c t ) = 1 2 ( SNR t − SNR T ) \lambda_t = \log\left( \frac{b_t}{c_t} \right) = \frac{1}{2}(\text{SNR}_t - \text{SNR}_T) λ t = log ( c t b t ) = 2 1 ( SNR t − SNR T ) ,式(16)从时间 t t t 到时间 s < t s < t s < t 的解可以表示为:
x s = c s c t x t + ( a s − c s c t a t ) x T + c s ∫ λ t λ s e λ x θ ( x t λ , t λ , x T ) d λ (17) x_s = \frac{c_s}{c_t} x_t + \left( a_s - \frac{c_s}{c_t} a_t \right) x_T + c_s \int_{\lambda_t}^{\lambda_s} e^\lambda x_\theta(x_{t_\lambda}, t_\lambda, x_T) d\lambda \tag{17}
x s = c t c s x t + ( a s − c t c s a t ) x T + c s ∫ λ t λ s e λ x θ ( x t λ , t λ , x T ) d λ ( 17 )
其中 t λ t_\lambda t λ 是 λ t \lambda_t λ t 的反函数。遵循成熟的数值方法(Hochbruck & Ostermann,2005)及其在扩散模型中的广泛应用(Zhang & Chen,2022;Lu等人,2022b;Gonzalez等人,2023),这一难以处理的积分可以通过 x θ x_\theta x θ 的泰勒展开和高阶导数的有限差分校准来近似。我们在附录D中展示了高阶求解器的推导,在附录E中展示了详细算法。
5 相关工作
我们在附录A中详细介绍了相关工作,包括扩散模型(diffusion models)、扩散桥模型(diffusion bridge models)以及快速采样技术。此外,我们在附录C.3中还讨论了扩散桥隐式模型(DBIM)的一些特殊情况,及其与流匹配(flow matching)、去噪扩散隐式模型(DDIM)和后验采样(posterior sampling)的关联。
6 实验
在本节中,我们将证明:在样本质量和采样效率两个维度上,扩散桥隐式模型(DBIM)均大幅优于去噪扩散桥模型(DDBM)的原始采样过程。我们还将展示DBIM在 latent 空间编码、图像重建,以及基于确定性采样的插值任务中的能力。
DBIM与DDBM之间的所有对比实验,均基于训练参数完全相同的模型展开:对于DDBM,我们采用其提出的混合采样器进行采样;对于DBIM,我们通过在其边界选择之间进行插值,来控制方差参数ρ ρ ρ ,具体公式如下:
ρ n = η σ t n 1 − S N R t n + 1 S N R t n , η ∈ [ 0 , 1 ] (18) \rho_n = \eta \ \sigma_{t_n}\sqrt{1 - \frac{SNR_{t_{n+1}}}{SNR_{t_n}}},\ \eta \in [0, 1] \tag{18}
ρ n = η σ t n 1 − SN R t n SN R t n + 1 , η ∈ [ 0 , 1 ] ( 18 )
其中,η = 0 η=0 η = 0 和 η = 1 η=1 η = 1 分别对应确定性采样和马尔可夫随机采样。
我们开展的实验包括以下两类:
图像到图像翻译任务:使用Edges→Handbags数据集(Isola等人,2017,图像尺寸64×64)和DIODE-Outdoor数据集(Vasiljevic等人,2019,图像尺寸256×256);
图像修复任务(补全):使用ImageNet数据集(Deng等人,2009,图像尺寸256×256),修复区域为中心128×128像素的掩码区域。
我们在所有实验中均报告了弗雷歇初始距离(Fréchet Inception Distance, FID)(Heusel等人,2017),并遵循以往研究(Liu等人,2023b;Zhou等人,2023)的做法,额外测量了以下指标:初始分数(Inception Score, IS)(Barratt & Sharma,2018)、学习感知图像块相似度(Learned Perceptual Image Patch Similarity, LPIPS)(Zhang等人,2018)、均方误差(Mean Square Error, MSE,用于图像到图像翻译任务)以及分类器准确率(Classifier Accuracy, CA,用于图像补全任务)。
指标计算的数据集来源如下:Edges→Handbags和DIODE-Outdoor数据集使用完整训练集;ImageNet数据集使用验证集中的1万张图像。推理时间对比结果详见附录G.1,更多实验细节详见附录F。
6.1 样本质量与采样效率
我们在表2和表3中呈现了扩散桥隐式模型(DBIM)的定量结果,并与基于生成对抗网络(GAN)、基于扩散模型(diffusion-based)和基于桥模型(bridge-based)的基准方法进行了对比³。为了同时证明DBIM在低函数评估次数(NFE)下的效率和高NFE下的质量,我们将DBIM的函数评估次数(number of function evaluations, NFEs)设置为20和100。在DBIM的实验中,我们从集合[0.0, 0.3, 0.5, 0.8, 1.0]中选取参数 η η η ,并报告最优结果。
在图像翻译任务中,去噪扩散桥模型(DDBM)在所有基准方法中实现了最优的样本质量(以FID衡量),但它需要的函数评估次数 N F E > 100 NFE>100 NFE > 100 。相比之下,仅需 N F E = 20 NFE=20 NFE = 20 的DBIM就已超越所有基准方法,其表现优于或与 N F E = 118 NFE=118 NFE = 118 的DDBM相当。当将DBIM的NFE提升至100时,其样本质量进一步提升,在DIODE-Outdoor数据集上的表现甚至超过了 N F E = 200 NFE=200 NFE = 200 的DDBM。
在更具挑战性的ImageNet 256×256图像补全任务中,DBIM的优势更为突出。具体而言,N F E = 20 NFE=20 NFE = 20 的DBIM性能超过了所有基准方法(包括 N F E = 500 NFE=500 NFE = 500 的DDBM),采样速度提升了25倍;当 N F E = 100 NFE=100 NFE = 100 时,DBIM的样本质量持续提升,FID值首次降至4以下。
样本视觉质量的对比结果如图1和图3所示:与DDBM的混合采样器相比,DBIM生成的结果更平滑,噪声伪影显著减少。更多样本示例详见附录H。
方差参数的消融实验
我们探究了方差参数 ρ ρ ρ (由 η η η 控制)的影响,以明确在不同NFE下,随机性水平对样本质量的作用,结果如表4和表5所示。在图像翻译任务中,我们一致观察到:采用 η = 0 η=0 η = 0 的确定性采样器时,模型性能优于 η > 0 η>0 η > 0 的随机性采样器。我们认为这与数据集特性相关——此类任务中目标图像与输入条件高度相关且依赖度高,生成模型本身无需过多多样性,因此无需引入随机性的直接映射方式更受青睐。
³值得注意的是,I²SB已发布的检查点(checkpoint)实际上是流匹配/插值模型(flow matching/interpolant model),而非桥模型,原因如下:(1)其以含噪条件(noisy condition)而非干净条件(clean condition)为起点;(2)其在条件与样本之间进行直接插值,未添加额外的中间噪声。
采用 η = 0 \eta=0 η = 0 的确定性采样器时,其性能优于 η > 0 \eta>0 η > 0 的随机性采样器。我们将其归因于数据集的特性:目标图像与输入条件高度相关且依赖于该条件,这使得生成模型本身无需具备多样性。在这种情况下,无需引入随机性的直接映射方式会更受青睐。
相反,在多样性更强的ImageNet 256×256数据集上进行图像补全任务时,参数 η \eta η 在不同函数评估次数(NFE)下均表现出显著影响:
当 N F E ≤ 20 NFE ≤20 NFE ≤ 20 时,η = 0 \eta=0 η = 0 是接近最优的选择,且随着 η \eta η 的增大,弗雷歇初始距离(FID)会稳步上升;
当 N F E ≥ 50 NFE ≥50 NFE ≥ 50 时,采用 η = 0.8 \eta=0.8 η = 0.8 甚至 η = 1 \eta=1 η = 1 的较高随机性水平,才能获得最优的FID值。
值得注意的是,当 N F E = 100 NFE =100 NFE = 100 时,η = 0 \eta=0 η = 0 对应的FID值会收敛至3.91,且进一步增大NFE也不会带来性能提升——这表明通过相应的概率流常微分方程(PF-ODE),模型已收敛到真实样本分布。这一观察结果与扩散模型的特性一致:确定性采样有助于模型快速收敛,而在采样过程中引入随机性则能提升生成多样性;当NFE足够大时,这种随机性最终会使样本质量达到最高水平。
高阶方法
为验证高阶方法的效果,我们将其与一阶方法(即确定性DBIM)进行了对比。如表6所示,在图像翻译任务中,以及在图像补全任务中当 N F E ≤ 50 NFE \leq 50 NFE ≤ 50 时,高阶方法始终能提升弗雷歇初始距离(FID)分数,在低NFE范围内提升了生成质量。此外,三阶变体的性能略优于二阶变体。但与扩散模型中的数值求解器不同,在扩散桥中,高阶扩展带来的收益相对有限,且不如将 η \eta η 从1调整为0时的提升显著。尽管如此,高阶DBIM仍比基于DDBM概率流常微分方程(PF-ODE)的高阶求解器高效得多。
如图1所示,在使用相同启动噪声(booting noise)的情况下,我们的高阶采样器生成的图像与一阶方法生成的图像语义内容相似;与之不同的是,高阶方法生成的图像视觉质量更优,纹理更精细,进而获得了更优的FID分数。这表明,来自过往网络输出的高阶梯度信息能通过添加高频视觉细节,为生成质量带来提升。
生成多样性
我们参照CMDE(Batzolis等人,2021)和BBDM(Li等人,2023)的方法,通过“多样性分数”对生成多样性进行定量衡量——该分数通过计算多次生成结果的像素级方差得到。如附录G.2所述,增加NFE或减小 η \eta η 均能提高多样性分数,这印证了启动噪声的作用。
6.2 重建与插值
如4.2节所述,当 η = 0 \eta=0 η = 0 时,DBIM具有确定性,且与神经常微分方程(neural ODE)相关联;通过将启动噪声视为 latent 变量,DBIM能够实现可靠的编码与重建。此外,在 latent 空间中采用球面线性插值(spherical linear interpolation),随后解码回图像空间,可在图像翻译和图像修复任务中实现语义图像插值。
这些能力是 η > 0 \eta>0 η > 0 的DBIM或包含随机步骤的DDBM混合采样器无法实现的。我们在图4a中展示了编码与解码结果,结果表明:当采样步数足够时,可实现精准重建;同时,我们也在图4b中展示了插值过程。
图4:确定性DBIM生成多样性的示意图
7 结论
本文提出了扩散桥隐式模型(DBIM),该模型无需额外训练即可加速去噪扩散桥模型(DDBM)的采样过程。与DDBM的连续时间生成过程不同,我们聚焦于离散化采样步骤,提出了一系列广义扩散桥模型(包括非马尔可夫变体)。由此推导的采样过程既是去噪扩散隐式模型(DDIM)在扩散桥领域的对应方法与扩展,还被进一步用于开发高阶数值求解器,填补了扩散桥研究中的相关空白。
在高分辨率数据集和具有挑战性的图像补全任务上的实验表明,DBIM在样本质量和采样效率两方面均具备优势:仅需100步即可实现最先进(state-of-the-art)的FID分数,且相比DDBM的采样过程,最高可实现25倍的加速比。
图5:DBIM案例(η = 0 \eta=0 η = 0 ,N F E = 500 NFE=500 NFE = 500 )
局限性与失效案例
尽管DBIM为扩散桥模型带来了显著的采样加速,但在单步生成方面,其性能仍落后于基于生成对抗网络(GAN)的方法。当NFE较小时,DBIM的生成质量并不理想;即便采用高阶方法,生成结果中仍存在模糊区域(见图1),难以满足实时应用的需求。此外,作为一种无训练推理算法,DBIM无法突破预训练扩散桥模型本身的能力与质量上限。在人脸、手部等复杂精细的补全场景中,即便使用较大的NFE,DBIM也无法消除生成结果中的伪影。
Edges→Handbags示例
DIODE示例
中心遮挡示例
图像恢复任务
DBIM高阶算法
启动噪声
DBIM确定性过程
DDBM和DBIM在DIODE任务上的性能对比
主流扩散模型对比
对参数η的消融实验
对方差的消融实验
图像翻译任务上的性能对比