Skip to main content

논문 정보

  • 날짜: 2026-04-14
  • 카테고리: -
  • 우선순위 점수: 0.0

핵심 요약

본 논문은 다국어 합성 데이터 생성 시 교사 모델의 효과성을 평가하기 위해 10개의 언어 모델과 6개 언어를 대상으로 ‘Polyglot Score’를 측정하였습니다. 실험 결과 Gemma 3 27B와 Aya Expanse 32B가 우수한 성능을 보였으며, 모델의 크기보다 프롬프트 다양성, 길이, 유창성이 데이터 품질의 핵심 요인임을 밝혀냈습니다. 또한 교사-학생 모델 간의 계열 일치와 기존 프롬프트 활용이 저자원 언어 성능 향상에 효과적임을 제안합니다.

학습자 관점 포인트

  • 우리 팀 영향: 다국어 SFT 데이터 구축 시 모델 크기에 의존하기보다 프롬프트 다양성과 유창성 지표를 우선 고려하여 교사 모델을 선정할 수 있는 가이드를 제공합니다.
  • 권장 액션: 실험
  • 액션 근거: 제시된 Polyglot Score와 데이터 품질 지표를 활용하여 현재 내부에서 사용 중인 다국어 합성 데이터 생성 파이프라인의 효율성을 검증할 가치가 있습니다.

원문 링크

학습자는 이 문서를 읽고 실험 여부를 바로 결정하세요.