DDPM
文章:Denoising Diffusion Implicit Models
代码:hojonathanho/diffusion: Denoising Diffusion Probabilistic Models (github.com)
摘要:我们使用扩散概率模型展示了高质量的图像合成结果,这是一种受非平衡热力学考虑启发的潜在变量模型。我们最好的结果是通过对加权变分界进行训练获得的,该边界是根据扩散概率模型和与朗之万动力学的去噪分数匹配之间的新联系设计的,我们的模型自然承认渐进式有损解压缩方案,可以解释为自回归解码的泛化。在无条件 CIFAR10 数据集上,我们获得了 9.46 的 Inception 分数和 3.17 的最新 FID 分数。在 256×256 LSUN 上,我们获得了类似于 ProgressiveGAN 的样本质量。
其中,先验分布
表示数据的分布,





DDIM
- 与DDPM的关系:DDIM与DDPM在训练方法上是相同的,都是通过估计图像的概率分布来训练模型。
- 不同点:DDIM与DDPM的主要区别在于采样方法。DDIM的采样过程更加高效,因为它采用了隐式采样方法。
VAE重参数化
在变分自编码器(VAE)中,我们希望从编码器输出的分布中采样隐变量
。如果我们直接从
中采样
,这个过程是随机的,因此不可导。这是因为随机采样是一个离散的操作,它打破了反向传播的链式法则,使得我们无法通过
和
计算梯度。
重参数化技巧通过引入一个随机噪声
来解决这个问题,这个噪声是从标准正态分布
中采样的。然后,我们通过以下方式将
转化为
:

这个公式是可导的,因为
和
是确定性的,而
是一个外部输入,它的梯度不会影响
和
的梯度。因此,我们可以通过
和
计算梯度,并使用这些梯度来优化编码器网络的参数。
在实际操作中,
是一个可以随机采样的变量,但它的采样值在每次梯度计算中都是固定的。这意味着在计算梯度时,我们可以将
视为一个常数,这样就可以通过自动微分工具来计算
相对于
和
的梯度。
总结来说,重参数化技巧通过将随机性从模型参数中分离出来,使得我们可以计算模型参数的梯度,并使用基于梯度的优化算法来训练模型。

文章来源于互联网:扩散模型基础串烧(DDPM、DDIM、Stable Diffusion、VAE重参数化)
相关推荐: 【AIGC】重磅消息,GPT-4.5 Turbo将在6月发布?
2024 年 AI 辅助研发趋势 强烈推荐 前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。点击跳转到网站:人工智能 GPT-4.5 Turbo 就在昨天GPT-4.5 Turbo 疑似被 OpenAI 网络团队泄露了! Bi…
5bei.cn大模型教程网










