논문 정보
- 날짜:
2026-03-04 - 카테고리: -
- 우선순위 점수: 1.933
핵심 요약
생성형 보상 모델(GRM)의 성능 향상을 위해 사고의 너비(B-CoT)와 깊이(D-CoT)를 결합한 Mix-GRM 프레임워크를 제안합니다. 주관적 선호도 과제에는 다차원적 원칙을 다루는 너비가, 객관적 정답 과제에는 판단의 건전성을 다루는 깊이가 더 효과적임을 입증했습니다. RLVR 학습을 통해 모델이 과제 특성에 맞춰 추론 스타일을 스스로 할당하는 창발적 분극 현상을 확인했습니다.학습자 관점 포인트
- 우리 팀 영향: 보상 모델 학습 시 과제 성격에 따라 추론 구조를 최적화함으로써 평가의 신뢰도와 정확도를 동시에 개선할 수 있습니다.
- 권장 액션: 실험
- 액션 근거: 오픈소스 RM 대비 평균 8.2%의 성능 향상을 보였으며, RLVR을 통한 추론 스타일 최적화 기법이 실무에 유용할 것으로 판단됩니다.
원문 링크
- arXiv: https://arxiv.org/abs/2603.01571
- Hugging Face Papers: https://huggingface.co/papers/2603.01571

