오토인코더 (Autoencoder)
학습 목표
- 오토인코더의 인코더-디코더 구조와 병목(Bottleneck) 개념을 이해한다
- 재구성 손실(Reconstruction Loss)의 역할을 설명할 수 있다
- Denoising Autoencoder의 원리와 장점을 안다
- 오토인코더와 PCA의 차이를 비교할 수 있다
왜 중요한가
오토인코더(Autoencoder, AE)는 입력을 저차원 잠재 공간(Latent Space)으로 압축한 뒤 다시 복원하는 구조입니다. 이 과정에서 학습된 잠재 표현은 차원 축소, 이상 탐지, 사전학습에 활용됩니다. VAE, Diffusion 등 현대 생성 모델의 기초가 됩니다.구조
- : 인코더, : 디코더
- : 잠재 표현
- : 재구성
구현
합성곱 오토인코더
이미지 데이터에는 합성곱 구조가 더 효과적입니다.학습
Denoising Autoencoder (DAE)
입력에 노이즈를 추가한 뒤, 원본을 복원하도록 학습합니다. 노이즈에 강건한 표현을 학습하며, 더 의미 있는 잠재 표현을 추출합니다.비교
| 방법 | 비선형 | 학습 | 잠재 공간 구조 |
|---|---|---|---|
| PCA | 선형 변환 | 고유값 분해 | 직교 축 |
| AE | 비선형 | 역전파 | 비구조적 |
| DAE | 비선형 | 역전파 (노이즈) | 강건한 표현 |
| VAE | 비선형 | 역전파 + KL | 연속적, 구조적 (가우시안) |
오토인코더의 한계
오토인코더의 한계
기본 오토인코더의 잠재 공간은 구조가 없습니다. 잠재 벡터를 임의로 샘플링하면 의미 없는 출력이 나옵니다. 이 한계를 극복한 것이 VAE(Variational Autoencoder)로, 잠재 공간에 확률 분포 구조를 부여하여 의미 있는 생성이 가능합니다.
체크리스트
- 인코더-디코더 구조와 병목의 역할을 설명할 수 있다
- 재구성 손실의 의미를 이해한다
- Denoising AE가 강건한 표현을 학습하는 원리를 안다
- 오토인코더와 PCA의 차이를 비교할 수 있다

