이미지 생성 개론
학습 목표
- GAN과 Diffusion Model의 기본 원리를 설명할 수 있다
- 두 생성 모델 패러다임의 차이를 비교할 수 있다
- Stable Diffusion의 핵심 구성 요소를 이해한다
- 이미지 생성 기술의 활용 분야를 파악한다
왜 중요한가
이미지 생성(Image Generation)은 CV의 주요 응용 분야로, 콘텐츠 제작, 데이터 증강, 디자인 프로토타이핑 등에 활용됩니다. GAN에서 시작된 생성 모델은 Diffusion Model로 진화하며, 텍스트 기반 고품질 이미지 생성이 가능해졌습니다.GAN (Generative Adversarial Network)
2014년 Ian Goodfellow가 제안한 GAN은 두 네트워크의 경쟁을 통해 이미지를 생성합니다.| 구성 요소 | 역할 |
|---|---|
| 생성자(Generator) | 노이즈에서 실제와 유사한 이미지 생성 |
| 판별자(Discriminator) | 이미지가 실제인지 생성인지 판별 |
Diffusion Model
Diffusion Model은 이미지에 점진적으로 노이즈를 추가하는 과정(Forward)을 학습한 뒤, 노이즈에서 이미지를 복원하는 역과정(Reverse)으로 이미지를 생성합니다.Stable Diffusion 구성
| 구성 요소 | 역할 |
|---|---|
| Text Encoder (CLIP) | 텍스트 프롬프트를 임베딩으로 변환 |
| U-Net | 잠재 공간(Latent Space)에서 노이즈 예측 |
| VAE Decoder | 잠재 공간을 이미지로 디코딩 |
| Scheduler | 노이즈 제거 스케줄 관리 |
GAN vs Diffusion 비교
| 비교 항목 | GAN | Diffusion |
|---|---|---|
| 학습 안정성 | 불안정 (모드 붕괴) | 안정적 |
| 생성 품질 | 높음 | 매우 높음 |
| 생성 다양성 | 제한적 | 높음 |
| 생성 속도 | 빠름 (1회 추론) | 느림 (반복 추론) |
| 제어 가능성 | 제한적 | 텍스트/이미지 조건 |
| 현재 추세 | 감소 | 주류 |
CV에서의 활용
| 활용 | 설명 |
|---|---|
| 데이터 증강 | 학습 데이터 부족 시 합성 이미지 생성 |
| 이미지 편집 | Inpainting, Super-Resolution |
| 도메인 적응 | 시뮬레이션 → 실제 환경 변환 |
| 프로토타이핑 | 디자인/제품 시각화 |
Stable Diffusion을 직접 활용하려면?
Stable Diffusion을 직접 활용하려면?
Hugging Face의
diffusers 라이브러리를 사용하세요. StableDiffusionPipeline으로 텍스트 기반 이미지 생성을 간단히 수행할 수 있습니다. GPU 8GB 이상이 권장됩니다.생성 모델을 데이터 증강에 사용해도 되나요?
생성 모델을 데이터 증강에 사용해도 되나요?
주의가 필요합니다. 생성된 이미지가 학습 데이터의 분포를 왜곡할 수 있으므로, 실제 데이터 대비 소량만 추가하고 성능 변화를 모니터링해야 합니다.
체크리스트
- GAN의 생성자/판별자 구조를 이해했다
- Diffusion Model의 노이즈 추가/제거 원리를 안다
- GAN과 Diffusion의 장단점을 비교할 수 있다
- Stable Diffusion의 핵심 구성 요소를 파악했다
- CV에서 생성 모델의 활용 사례를 안다

