LLM Fine-Tuning
이 섹션은 LLM을 도메인에 맞게 조정하는 전체 흐름을 다룹니다. 핵심은 세 가지입니다.- 어떤 문제에 파인튜닝이 필요한지 먼저 판단한다
- 데이터셋 품질을 모델 아키텍처보다 우선한다
- 오프라인 평가와 온라인 검증을 분리해 운영한다
학습 경로
개요
파인튜닝 파이프라인과 핵심 용어를 빠르게 정리합니다
언제 파인튜닝할까
프롬프트/RAG/파인튜닝의 선택 기준을 의사결정 트리로 설명합니다
데이터셋 설계
Instruction/Preference 데이터 포맷과 품질 기준을 다룹니다
SFT와 PEFT
LoRA/QLoRA/Unsloth + TRL 워크플로우를 실무 기준으로 설명합니다
정렬(Alignment)
DPO/ORPO/RLHF의 차이와 적용 시점을 비교합니다
평가와 배포
벤치마크, 사람 평가, 체크포인트 머지와 서빙 기준을 정리합니다
선수 지식
| 항목 | 권장 수준 | 참고 |
|---|---|---|
| Python / PyTorch | 텐서, DataLoader, 학습 루프 작성 가능 | /dl/index |
| Transformer 기초 | Attention, decoder-only 구조 이해 | /nlp/transformer/index |
| RAG 운영 경험 | 검색 품질/프롬프트 한계 인지 | /rag/index |

