-
[논문 정리] Denoising Diffusion Probabilistic Models (2020)Paper Review/Generative Model 2022. 11. 28. 15:37
해당 논문은 물리학의 잠재변수 모델의 클래스인 Diffution Probabilistic Model을 활용하여 고품질의 이미지를 생성한 (Denoising Diffusion Probabilistic Models)DDPM을 처음 제안했다. 첫 논문에서도 기존 생성 모델인 GAN과 비슷한 품질을 달성했으며 이후에는 GAN을 압도하는 모델이 되었다.
더보기물리학에서의 Diffusion : 특정한 물질이 조금씩 번지며 같은 농도로 바뀌는 현상
Diffusion Models
DDPM 은 데이터와 일치하는 샘플을 생성하기 위해 variational inference를 통해 학습된 parameterized Markov chain이다. 학습 과정은 아래 그림처럼 샘플링 반대 방향으로 데이터에 가우시안 노이즈를 점진적으로 추가하는 확산 프로세스가 역으로 진행되면서 이뤄진다. 이를 통해 random noise로부터 이미지를 생성한다.
즉, 2가지의 과정을 통해 학습이 진행된다.
Forward process(Diffusion process) : 원본 데이터에 가우시안 노이즈를 점진적으로 추가하며 완전한 random noise 생성. 여기서 가우시안 노이즈에 variance schedule β_1,2,...t(가우시안 노이즈의 크기)에 따라 Markov chain을 적용하며, 기존 증명에 따라 횟수(step : t)가 많아지면 x_t 또한 완전한 random gaussian을 따른다고 한다.
이 과정에서 각 단계 이전인 x_t에 √β_t로 스케일링 함으로써 variance가 발산되지 않고 일정 수준으로 유지될 수 있다.
논문에서는 이후 과정에서 아래의 notation을 따른다.
Reverse process : 완전한 random gaussian을 따르는 노이즈 x_T로부터 다시 노이즈를 제거해가며 패턴(이미지) 생성. 이 과정을 학습하는 것이 해당 모델의 목표이다. pθ(x0:T )는 p(x_T)로부터 p(x_0)를 만들어내는 학습된 Markov chain으로 볼 수 있다.
Training : 이러한 과정 사이의 학습은 negative log lieklihood에 대한 usual variational bound를 최적화하는 방향으로 진행(L)된다. (생성 모델이기 때문에 데이터의 분포와 맞는지에 대한 log likelihood를 최대화 -> negative log likelihood 최소화)
이러한 L에 대해 stochastic gradient descent를 최적화함으로써 variance reduction을 감소시킬 수 있다. Equation (3)의 오른쪽 항을 수식 전개하여 다시 정리하면 아래와 같다.
KL divergence로 정리한 Equation (5)를 보면, forward process의 posterior와 reverse process를 직접 비교한다.
Equation (5)에서 q(x_t−1 ∣ x_t,x_0) 은 위의 Foward process에 의해 아래와 같이 다시 정리할 수 있다.
'Paper Review > Generative Model' 카테고리의 다른 글
[논문 리뷰] ShadowDiffusion: When Degradation Prior Meets Diffusion Model for Shadow Removal (2022) (0) 2023.02.14 [논문 리뷰] Denoising Diffusion Restoration Models (0) 2023.01.31 [논문 리뷰] A Style-Based Generator Architecture for Generative Adversarial Networks (0) 2022.03.14 [논문 리뷰] Conditional Generative Adversarial Nets (0) 2022.01.20 [논문 리뷰] Generative Adversarial Nets (0) 2021.12.27