Skip to main content

논문 정보

  • 날짜: 2026-03-04
  • 카테고리: -
  • 우선순위 점수: 1.933

핵심 요약

생성형 보상 모델(GRM)의 성능 향상을 위해 사고의 너비(B-CoT)와 깊이(D-CoT)를 결합한 Mix-GRM 프레임워크를 제안합니다. 주관적 선호도 과제에는 다차원적 원칙을 다루는 너비가, 객관적 정답 과제에는 판단의 건전성을 다루는 깊이가 더 효과적임을 입증했습니다. RLVR 학습을 통해 모델이 과제 특성에 맞춰 추론 스타일을 스스로 할당하는 창발적 분극 현상을 확인했습니다.

학습자 관점 포인트

  • 우리 팀 영향: 보상 모델 학습 시 과제 성격에 따라 추론 구조를 최적화함으로써 평가의 신뢰도와 정확도를 동시에 개선할 수 있습니다.
  • 권장 액션: 실험
  • 액션 근거: 오픈소스 RM 대비 평균 8.2%의 성능 향상을 보였으며, RLVR을 통한 추론 스타일 최적화 기법이 실무에 유용할 것으로 판단됩니다.

원문 링크

학습자는 이 문서를 읽고 실험 여부를 바로 결정하세요.