728x90
반응형
Variational Auto-Encoders (VAEs).
(개념) 데이터를 잠재 공간(latent space)의 벡터로 압축하고 다시 원본으로 복원하도록 학습하는 모델

(학습방식) 가우시안 분포 등의 확률 분포에 근사되도록 잠재 벡터 설정 후 학습 완료시 재조정하여 새로운 데이터 생성 가능 
 

기존 오토인코더와 GAN은 임의의 입력값을 통해 생성이 이루어져 사용자의 의도를 명확히 반영하는 데 한계가 존재

 

- GAN 생성기의 입력은 대체로 무작위 변수가 기반으로써, 생성 이미지 역시 무작위일가능성이 크다는 것을 의미

 

예컨대 사용자가 의자 이미지에서 의자의 색상을 의도적으로 바꾸고자 하여도 기존 GAN방식은 임의값의 결과물이 출력되어 사용자가 원하는 결과를 얻을 수 없음

 

- 이를 개선하기 위해 등장한 VAE는 오토인코더의 잠재 변수(코드)로 지칭되는 특징(Feature)을조정하여 기존 GAN 대비 이미지 생성의 유의미한 개선을 유도

 

생성 모델링에 사용되는 가장 일반적인 두 가지 방법은 GAN (Generative Adversarial Networks) 및 VAE (Variational Auto-Encoders)입니다.

 

 

GAN은 노이즈 (z)를 도입하고 생성기 신경망을 사용하여 해당 z를 데이터의 팩시밀리 버전 (X-hat)으로 변환함으로써 작동합니다. 그 데이터는 판별 자에 의해 실제 예제 (X)와 비교되고, 판별자가 진짜로 분류 할 가능성이 큰 가짜 이미지를 생성하는 것을 학습합니다. 언뜻보기에 z의 역할이 무엇인지는 분명하지 않을 수 있습니다.
 
 
유익한 가치를 추가하지 않는 이유는 무엇입니까? 대답은 샘플을 허용 한다는  입니다. 생성 형 모델링의 중요한 측면은 문제의 배포판에서 하나의 예제를 생성 할 수있는 모델을 단순히 원하는 것이 아니라 매번 반복되는 드로잉을 수행하고 매번 다른 출력을 얻을 수있는 모델을 원한다는 것입니다.
 
 
생성기는 단지 행렬로 구성되기 때문에이 샘플링 기준을 충족 시키려면 네트워크 설정의 적어도 일부가 확률 적이어야합니다. GAN에서 z 노이즈의 공간을 가로지를 때 각 z 샘플이 입력으로 주어질 때 생성기에서 생성 된 X를 기반으로 배포와 다른 결과를 얻습니다.
 
 
또한 우리가 사용하는 분포 z를 결정하고 제어하기 때문에 모델을 학습 한 후에 샘플링하기 쉽습니다. 동일한 선택된 분포에서 z 값을 샘플링하기 만하면 샘플 z는 생성기가 z를 사용하여 실제 출력을 생성하는 것을 배웁니다.
 
VAE의 Decoder는 Encoder가 생성한 Latent Space의 사후확률을 학습하는 것이 목적이다.

 

즉, 입력 데이터 x와 Latent Space z의 사후 확률 p(z|x)를 학습하는 것이다.
하지만 이 사후확률은 직접적으로 계산하기 어려워 변분추론(Variational Inference)을 통해 근사적으로 학습한다.
Latent Space z의 분포 q(z)로 근사하기 위해 p(z|x)와 q(z) 사이의 KL Divergence를 계산하고, 이 값이 감소하는 방향으 로 q(z)를 갱신하는 절차를 수행한다.
VAE 모델은 Latent Space를 학습할 때 이에 대한 확률 분포인 평균(μ)과 표준편차(σ)를 학습한다.
생성모델(Generative Model) 연구 동향 및 금융에서의 활용 (주기동, 2021.12.8)
 

 
728x90
Posted by Mr. Slumber
,