논문 정보
- 날짜:
2026-03-28
- 카테고리: -
- 우선순위 점수: 1.3
핵심 요약
본 논문은 온폴리시 증류(OPD)가 긴 시퀀스 생성 시 발생하는 불안정성과 편향 문제를 분석하고 해결책을 제시합니다. 연구진은 토큰 수준의 OPD가 시퀀스 수준의 역 KL 대비 편향은 있으나 분산 제어에 유리함을 입증하고, 교사의 Top-K 로컬 서포트 매칭을 통한 개선된 목적 함수를 제안합니다. 이를 통해 수학적 추론 및 에이전트 작업에서 기존 방식보다 더 안정적인 최적화와 향상된 성능을 달성했습니다.
학습자 관점 포인트
- 우리 팀 영향: LLM 포스트 트레이닝 과정에서 온폴리시 학습의 불안정성을 줄이고 추론 성능을 효율적으로 개선할 수 있는 구체적인 방법론을 제공합니다.
- 권장 액션: 실험
- 액션 근거: 제안된 Truncated Reverse-KL과 특수 토큰 마스킹 기법이 실제 모델 튜닝 시 안정성 확보에 즉각적인 도움이 될 것으로 판단됩니다.
원문 링크
학습자는 이 문서를 읽고 실험 여부를 바로 결정하세요.