탐지 평가 지표
학습 목표
- IoU(Intersection over Union)의 정의와 계산법을 설명할 수 있다
- Precision-Recall Curve를 해석할 수 있다
- mAP@50과 mAP@50:95의 차이를 이해하고 해석할 수 있다
- Ultralytics의 평가 결과를 분석할 수 있다
왜 중요한가
탐지 모델은 “어디에, 무엇이 있는가”를 예측하므로, 분류의 Accuracy와는 다른 평가 체계가 필요합니다. 위치 정확도(IoU)와 클래스 정확도를 모두 고려하는 mAP가 표준 지표입니다. mAP 수치를 올바르게 해석해야 모델 개선 방향을 설정할 수 있습니다.IoU (Intersection over Union)
예측 박스와 정답 박스의 겹침 정도를 0~1 사이 값으로 나타냅니다.| IoU 값 | 해석 |
|---|---|
| 0.0 | 겹침 없음 |
| 0.5 | 보통 수준 (COCO 기본 임계값) |
| 0.75 | 높은 정밀도 |
| 1.0 | 완벽한 겹침 |
TP/FP/FN 판정
IoU 임계값을 기준으로 탐지 결과를 분류합니다.| 판정 | 조건 | 의미 |
|---|---|---|
| TP (True Positive) | IoU >= 임계값, 클래스 일치 | 올바른 탐지 |
| FP (False Positive) | IoU < 임계값, 또는 중복 탐지 | 오탐지 (잘못된 알림) |
| FN (False Negative) | 정답은 있으나 탐지 못함 | 미탐지 (놓침) |
Precision-Recall Curve
신뢰도 임계값을 변화시키면서 Precision과 Recall의 관계를 그린 곡선입니다.- Precision = TP / (TP + FP): 탐지 결과 중 맞은 비율
- Recall = TP / (TP + FN): 전체 정답 중 탐지한 비율
AP와 mAP
AP (Average Precision)
하나의 클래스에 대한 Precision-Recall Curve 아래의 면적입니다.mAP (mean Average Precision)
모든 클래스의 AP를 평균한 값입니다.| 지표 | IoU 임계값 | 설명 |
|---|---|---|
| mAP@50 | 0.50 | IoU 50% 이상이면 TP. 대략적 위치 평가 |
| mAP@75 | 0.75 | 엄격한 위치 정확도 평가 |
| mAP@50:95 | 0.50~0.95 (0.05 간격) | 10개 IoU에서 평균. COCO 공식 지표 |
mAP@50은 위치가 대략 맞으면 인정하고, mAP@50:95는 위치 정밀도까지 종합적으로 평가합니다. COCO 벤치마크에서는 mAP@50:95를 주요 지표로 사용합니다.
Ultralytics 평가 결과 해석
실무 해석 기준
| mAP@50:95 | 수준 | 조치 |
|---|---|---|
| 0.60 이상 | 우수 | 배포 가능 |
| 0.40~0.60 | 양호 | 데이터/하이퍼파라미터 개선 |
| 0.20~0.40 | 부족 | 데이터 품질 재검토 필요 |
| 0.20 미만 | 미흡 | 데이터셋이나 태스크 재정의 필요 |
mAP@50은 높은데 mAP@50:95는 낮습니다
mAP@50은 높은데 mAP@50:95는 낮습니다
모델이 객체를 대략 찾고는 있지만 바운딩 박스 위치가 정밀하지 않다는 의미입니다. 데이터 라벨링의 일관성을 점검하고, 이미지 해상도를 높이거나 더 큰 모델을 사용해 보세요.
특정 클래스의 AP만 유독 낮습니다
특정 클래스의 AP만 유독 낮습니다
해당 클래스의 학습 데이터가 부족하거나, 다른 클래스와 시각적으로 유사하여 혼동될 수 있습니다. 해당 클래스의 데이터를 증강하거나, 라벨링 품질을 재점검하세요.
체크리스트
- IoU의 정의와 계산법을 이해했다
- TP, FP, FN의 판정 기준을 안다
- Precision과 Recall의 트레이드오프를 이해했다
- mAP@50과 mAP@50:95의 차이를 설명할 수 있다
- Ultralytics 평가 결과를 해석할 수 있다

