Skip to main content

논문 정보

  • 날짜: 2026-04-10
  • 카테고리: -
  • 우선순위 점수: 0.7

핵심 요약

강화학습 기반 멀티모달 모델에서 발생하는 사고 과정(CoT)과 최종 정답 간의 불일치 및 시각적 근거 부족 문제를 해결하기 위해 Faithful GRPO(FGRPO)를 제안합니다. FGRPO는 라그랑주 승수법을 활용하여 논리적 일관성과 시각적 접지(Grounding)를 제약 조건으로 최적화 과정에 통합합니다. 실험 결과, Qwen2.5-VL 모델에서 불일치율을 24.5%에서 1.7%로 낮추고 시각적 접지 점수와 최종 정답 정확도를 동시에 향상시켰습니다.

학습자 관점 포인트

  • 우리 팀 영향: 멀티모달 RL 학습 시 모델의 할루시네이션을 억제하고 추론 과정의 신뢰성을 높이는 제약 조건 최적화 기법을 우리 팀의 시각 추론 모델 학습에 적용할 수 있습니다.
  • 권장 액션: 실험
  • 액션 근거: GRPO 기반 학습 시 발생하는 CoT 불일치 문제를 효과적으로 해결하며 정확도까지 개선됨이 입증되었으므로, 자체 모델의 추론 품질 향상을 위해 실험이 필요합니다.

원문 링크

학습자는 이 문서를 읽고 실험 여부를 바로 결정하세요.