모델 유형
- 카테고리:
ranking - 라이브러리:
lightgbm
핵심 학습 포인트
- 쿼리 그룹 내 상대 순서를 학습하는 구조를 이해합니다.
N Trees,N Leaves가 순위 일반화 성능에 미치는 영향을 확인합니다.NDCG@K기준으로 오프라인 성능을 비교합니다.
주요 하이퍼파라미터
| 키 | UI 라벨 | 타입 | 기본값 |
|---|---|---|---|
nTrees | N Trees | slider | 20 |
nLeaves | N Leaves | slider | 16 |
실습 및 공식 문서
- 머신러닝 Visual LAB: /ranking/lightgbm-ranker
- 공식 문서: LGBMRanker
- 공식 API 인덱스: 바로가기
언제 쓰나
검색/추천처럼 결과 순서 자체가 품질을 좌우하는 문제에 사용합니다. 작은 실험셋으로 빠르게 기준 성능을 확인한 뒤, 필요하면 더 복잡한 모델로 확장합니다.실무 적용 체크리스트
- 데이터 누수 가능성을 먼저 점검했습니다.
- 학습/검증/테스트 분할 기준을 고정했습니다.
- 핵심 지표(예: F1, RMSE, AUC)를 명시했습니다.
- 베이스라인 대비 개선폭과 비용 변화를 함께 기록했습니다.
자주 나는 실수
- 데이터 분할 전에 전처리를 수행해 데이터 누수가 발생합니다.
- 단일 지표만 보고 모델을 선택해 운영 성능이 불안정해집니다.
- 하이퍼파라미터를 과도하게 조정해 검증셋 과적합이 생깁니다.
다음 문서
다음: XGBoost Ranker
학습 흐름을 이어서 진행합니다.

