Skip to main content

논문 정보

  • 날짜: 2026-03-01
  • 카테고리: -
  • 우선순위 점수: 0.7

핵심 요약

LLM의 추론 능력을 강화하는 RLVR 과정에서 발생하는 과도한 확신(Overconfident) 오류가 생성 다양성을 저해하는 문제를 지적합니다. 이를 해결하기 위해 오답 경로의 확신도 변화를 측정하여 부정적 이득을 동적으로 조절하는 ACE(Asymmetric Confidence-aware Error Penalty) 기법을 제안합니다. 실험 결과, Qwen 및 Llama 모델에서 Pass@k 성능을 전반적으로 향상시키며 기존 방법론과도 잘 결합됨을 확인했습니다.

학습자 관점 포인트

  • 우리 팀 영향: 추론 모델 학습 시 오답에 대한 일률적 패널티 대신 확신도 기반의 차등 패널티를 적용하여 모델의 탐색 효율과 성능을 동시에 개선할 수 있습니다.
  • 권장 액션: 실험
  • 액션 근거: 기존 GRPO 등 RLVR 프레임워크에 쉽게 통합 가능하며, 추론 모델의 고질적인 문제인 다양성 저하를 해결할 가능성이 높기 때문입니다.

원문 링크

학습자는 이 문서를 읽고 실험 여부를 바로 결정하세요.