Generative Adversarial Nets
Autoregressive Model
Normalizing Flow
Probabilistic Circuit
(최근)
Energy Based Methods
Score Matching
Variatinal Auto-Encoder
Diffusion Models
Goal of Generative Models
Idea: Denoising AutoEncoder (DAE)
Idea: Training Generative Model via Denoising (origin: 1970년대 통계물리학자…)
단계별로 feature hierarchy를 나눠서 feature들을 생성해내는
단계별로는 denoising AE처럼 보이지만 hierarchy에 따라 노이즈 제거→ 로컬 추출 → 노이즈 아예 제거 …
이 모델들을 다 이어주면 됨!
이 Generative Model:
그러나!!!!!!! 구현이 안됨
아이디어 좋다 ≠ 구현이 된다
DDPM: Denoising Diffusion Probabilistic Model
실제로 성공한 첫 논문 (NeurIPS 2020)
Diffusion의 의미: ‘확산’ (일반적으로 기체, 분자, 온도 등)
열 방정식; heat equation (= diffusion equation) 원리 사용
주변 지점의 밀도에 따라 현재 지점의 밀도가 어떻게 변화하는지 나타내는 방정식
- 열 뿐만 아니라 기체 분자, 화학 혼합물의 확산 등 많은 곳에서 쓰임
(그 지점에서의 주변에 밀도함수의 주변 지점에서의 온도의 분포에 영향을 받음 이게 대체 무슨 말이냐! 주변 애들보다 높은 지점에 있으면 낮아지고 주변 애들보다 낮은 지점에 있으면 높아짐)
Denoising AutoEncoder
idea
algorithm
training
참고 🔗
main point: t시점에서의 정보가 주어졌을 때 다음시점으로 보내주기 위해서는 z만 보내주는 것이 아니라 x의 정보도 일부 reconstruction 할 수 있어야 함
Learning Objective of Diffusion Model