논문 정보
- 날짜:
2026-03-31 - 카테고리: -
- 우선순위 점수: 0.867
핵심 요약
대규모 시각-언어 모델(LVLM)의 연속 학습 시 발생하는 라우팅 드리프트 문제를 해결하기 위해 LLaVA-DyMoE 프레임워크를 제안합니다. 새로운 전문가가 추가될 때 이전 작업의 토큰이 잘못 할당되는 현상을 분석하고, 토큰별 라우팅 점수 분포에 따른 동적 할당 가이드를 도입했습니다. 이를 통해 기존 지식의 망각을 줄이면서 새로운 전문가의 전문성을 강화하여 평균 정확도를 7% 이상 향상시켰습니다.학습자 관점 포인트
- 우리 팀 영향: MoE 기반 모델의 연속 학습 시 발생하는 성능 저하 문제를 라우팅 최적화로 해결할 수 있는 구체적인 방법론을 제시합니다.
- 권장 액션: 실험
- 액션 근거: 기존 MoE 구조의 망각 문제를 토큰 수준의 할당 제어로 개선했다는 점에서 현재 진행 중인 멀티모달 모델 고도화에 적용 가능성이 높습니다.
원문 링크
- arXiv: https://arxiv.org/abs/2603.27481
- Hugging Face Papers: https://huggingface.co/papers/2603.27481

