Skip to main content

논문 정보

  • 날짜: 2026-03-01
  • 카테고리: -
  • 우선순위 점수: 0.033

핵심 요약

DyaDiT는 2인 대화 상황에서 상호 작용 역학을 고려하여 사회적으로 적절한 제스처를 생성하는 멀티모달 디퓨전 트랜스포머 모델입니다. 기존의 단일 화자 방식과 달리 양측의 오디오 신호와 사회적 맥락 토큰을 융합하며, 모션 딕셔너리를 통해 자연스러운 동작을 구현합니다. 실험 결과 객관적 지표와 사용자 선호도 측면에서 기존 방식보다 우수한 성능을 보였습니다.

학습자 관점 포인트

  • 우리 팀 영향: 디지털 휴먼 간의 자연스러운 상호 작용 및 대화형 제스처 생성 기술 고도화에 기여할 수 있습니다.
  • 권장 액션: 실험
  • 액션 근거: 2인 대화 맥락을 반영한 제스처 생성 방식이 기존 단일 화자 모델보다 실용적이며 코드 공개가 예정되어 있어 검증이 가능합니다.

원문 링크

학습자는 이 문서를 읽고 실험 여부를 바로 결정하세요.