去噪扩散概率模型 (DDPM) 是一类生成模型,旨在通过学习逆转渐进式加噪过程来生成数据。与一步到位生成数据的模型不同,DDPM 通过一系列步骤操作,逐步将随机噪声转化为结构化数据。其核心思想包含两个阶段:一个正向过程,系统地向数据添加噪声直至其变得随机;以及一个反向过程,训练神经网络迭代地去除噪声。这种方法通过关注微小、增量的变化来学习数据分布,而不是尝试直接生成。
DDPM 中的正向过程被定义为一个马尔可夫链,通过在多个时间步长上添加高斯噪声来逐渐破坏输入数据(例如,图像)。例如,从一张干净的图像开始,每一步都根据预定义的时间表添加少量噪声,直到数据与随机噪声无法区分。反向过程训练一个神经网络——通常是一个 U-Net——来预测在每个步骤中添加的噪声,使其能够“去噪”样本。在训练过程中,模型通过最小化预测噪声与每个时间步长引入的实际噪声之间的差异来优化,通常使用均方误差损失。这种逐步的方法使得问题比单步生成更容易处理。
DDPM 已应用于图像合成、图像修补和超分辨率等任务。例如,它们可以通过从随机噪声开始并应用学习到的去噪步骤来生成高质量图像。一个主要优势是训练期间的稳定性,因为该模型避免了像 GAN 中那样的对抗性设置。然而,由于迭代过程——通常需要数百步——生成样本可能会很慢。最近的改进,例如 DDIM (去噪扩散隐式模型),通过以更少的步骤实现更快的采样来解决这个问题,同时保持质量。实现 DDPM 的开发者通常使用 PyTorch 等框架,利用现有的噪声调度和 U-Net 架构库来简化训练和推理过程。