논문 정보
- 날짜:
2026-03-24 - 카테고리: -
- 우선순위 점수: 0.1
핵심 요약
Diffusion Transformers (DiTs) power high-fidelity video world models but remain computationally expensive due to sequential denoising and costly spatio-temporal attention. Training-free feature caching accelerates inference by reusing intermediate activations across denoising st…학습자 관점 포인트
- 우리 팀 영향: 추가 검토 필요
- 권장 액션: 보류
- 액션 근거: LLM 출력 파싱 실패로 수동 검토가 필요합니다.
원문 링크
- arXiv: https://arxiv.org/abs/2603.22286
- Hugging Face Papers: https://huggingface.co/papers/2603.22286

