논문 정보
- 날짜:
2026-04-01
- 카테고리: -
- 우선순위 점수: 0.633
핵심 요약
LLM 기반 ASR 시스템에서 대화 문맥을 효율적으로 활용하기 위해 이전 턴의 오디오 데이터를 고정된 수의 잠재 토큰으로 압축하는 Abstract Compression 기법을 제안합니다. 실험 결과, 다회차 대화 학습을 통해 문맥적 개체 인식 성능이 향상되었으며 원본 오디오 시퀀스 대비 연산 효율성을 확보했습니다. 제안된 모델은 도메인 내외 테스트 세트 모두에서 원본 문맥 활용 성능의 상당 부분을 유지하면서도 오디오 데이터 점유율을 줄였습니다.
학습자 관점 포인트
- 우리 팀 영향: 긴 대화 문맥을 처리해야 하는 ASR 모델의 연산 비용을 절감하면서도 개체명 인식 정확도를 개선하는 데 기여할 수 있습니다.
- 권장 액션: 실험
- 액션 근거: 오디오 토큰 압축을 통한 효율적인 문맥 반영 방식이 실제 서비스 환경의 긴 대화 처리 성능 개선에 유효한지 검증이 필요합니다.
원문 링크
학습자는 이 문서를 읽고 실험 여부를 바로 결정하세요.