논문 정보
- 날짜:
2026-04-07 - 카테고리: -
- 우선순위 점수: 1.433
핵심 요약
본 논문은 텍스트 빈도가 높을수록 LLM의 성능이 향상된다는 ‘텍스트 빈도 법칙(TFL)‘을 제안합니다. 이를 기반으로 입력문을 더 빈번한 표현으로 변환하는 프롬프팅 기법과 빈도 순서대로 학습하는 커리큘럼 학습(CTFT) 프레임워크를 구축했습니다. 수학적 추론, 기계 번역, 에이전트 도구 호출 등 다양한 태스크에서 해당 방법론의 유효성을 입증했습니다.학습자 관점 포인트
- 우리 팀 영향: 데이터 전처리 및 파인튜닝 시 텍스트 빈도를 고려한 커리큘럼 학습 전략을 도입하여 모델의 추론 성능을 효율적으로 개선할 수 있습니다.
- 권장 액션: 실험
- 액션 근거: 텍스트 빈도라는 새로운 지표를 활용한 학습 및 프롬프팅 전략이 실제 에이전트 및 추론 성능 향상에 기여하는지 검증이 필요합니다.
원문 링크
- arXiv: https://arxiv.org/abs/2604.02176
- Hugging Face Papers: https://huggingface.co/papers/2604.02176

