Skip to main content

논문 정보

  • 날짜: 2026-04-06
  • 카테고리: -
  • 우선순위 점수: 1.667

핵심 요약

On-policy distillation (OPD) has become a popular training paradigm in the LLM community. This paradigm selects a larger model as the teacher to provide dense, fine-grained signals for each sampled trajectory, in contrast to reinforcement learning with verifiable rewards (RLVR),…

학습자 관점 포인트

  • 우리 팀 영향: 추가 검토 필요
  • 권장 액션: 보류
  • 액션 근거: LLM 출력 파싱 실패로 수동 검토가 필요합니다.

원문 링크

학습자는 이 문서를 읽고 실험 여부를 바로 결정하세요.