논문 정보
- 날짜:
2026-04-11
- 카테고리: -
- 우선순위 점수: 1.167
핵심 요약
DMax는 확산 언어 모델(dLLM)의 병렬 디코딩 시 발생하는 오류 누적 문제를 해결하기 위해 제안된 새로운 패러다임입니다. On-Policy Uniform Training을 통해 모델이 마스킹된 입력과 자신의 오류 예측으로부터 토큰을 복구하도록 학습하며, 임베딩 공간에서의 점진적 자기 수정을 가능하게 합니다. 실험 결과 LLaDA-2.0-mini 대비 GSM8K 및 MBPP 벤치마크에서 생성 품질을 유지하면서도 처리 속도(TPF)를 2배 이상 향상시켰습니다.
학습자 관점 포인트
- 우리 팀 영향: 확산 모델 기반 언어 생성의 고질적인 속도 문제를 해결하여 실시간 추론 서비스의 효율성을 크게 개선할 수 있습니다.
- 권장 액션: 실험
- 액션 근거: 기존 dLLM 대비 생성 품질 저하 없이 2배 이상의 속도 향상을 입증하였으므로 내부 모델에 적용 가능성을 검증할 가치가 높습니다.
원문 링크
학습자는 이 문서를 읽고 실험 여부를 바로 결정하세요.