두 가지 전략
| 전략 | 학습 대상 | 데이터 요구량 | 학습 시간 |
|---|---|---|---|
| Feature Extraction | 분류 헤드만 | 적음 | 빠름 |
| Fine-Tuning | 전체 (또는 일부) | 중간 | 보통 |
Feature Extraction (특성 추출)
사전학습 모델의 가중치를 고정하고, 마지막 분류층만 새로 학습합니다.Fine-Tuning (미세 조정)
전체 모델을 낮은 학습률로 학습합니다. 층별로 다른 학습률을 적용하는 것이 효과적입니다.전략 선택 가이드
| 상황 | 추천 전략 | 이유 |
|---|---|---|
| 데이터 매우 적음 (500 미만) | Feature Extraction | 과적합 방지 |
| 데이터 적음 (500~5000) | Feature Extraction → Fine-Tuning | 점진적 해동 |
| 데이터 보통 (5000+) | Fine-Tuning | 도메인 적응 가능 |
| 도메인이 매우 다름 | Fine-Tuning (초기층부터) | 전체 특성 재학습 필요 |
어떤 사전학습 모델을 선택해야 하나요?
어떤 사전학습 모델을 선택해야 하나요?
일반적으로 ResNet-50이 균형 잡힌 선택입니다. 경량 모델이 필요하면 EfficientNet-B0, 최고 성능이 필요하면 ConvNeXt-Base를 고려합니다. torchvision의 모델 가중치는 ImageNet-1K 기준이며, 일부 모델은 ImageNet-21K 사전학습 가중치도 제공합니다.
Gradual Unfreezing이란?
Gradual Unfreezing이란?
모든 층을 한 번에 학습하는 대신, 출력층부터 점진적으로 동결을 해제하며 학습하는 기법입니다. 사전학습된 저수준 특성(에지, 텍스처)을 보존하면서 고수준 특성만 도메인에 맞게 조정할 수 있습니다.
체크리스트
- Feature Extraction과 Fine-Tuning의 차이를 설명할 수 있다
-
requires_grad = False로 레이어를 동결할 수 있다 - 분류 헤드를 교체하고 새로운 클래스 수에 맞게 설정할 수 있다
- 차별적 학습률을 적용할 수 있다
다음 문서
시퀀스 모델
시계열과 텍스트를 처리하는 RNN 계열 모델
Vision 탭
객체 탐지, 세그멘테이션 등 고급 비전 태스크

