Skip to main content
시퀀스 모델은 순서가 있는 데이터(텍스트, 시계열, 음성 등)를 처리하기 위한 아키텍처입니다. 이전 시점의 정보를 기억하며 순차적으로 입력을 처리합니다.
순서주제핵심 내용
1RNN순환 구조, BPTT, 기울기 소실
2LSTM / GRU게이트 메커니즘으로 장기 의존성 해결
3Seq2Seq인코더-디코더, Teacher Forcing, Attention 배경
4텍스트 분류LSTM으로 감성 분석 구현
Attention과 Transformer 아키텍처는 NLP 탭에서 상세히 다룹니다. 이 그룹에서는 Transformer 이전의 시퀀스 모델링 맥락과 Attention의 등장 배경을 학습합니다.

RNN

순환 신경망의 기본 구조와 한계

LSTM / GRU

게이트 메커니즘으로 장기 의존성 해결

Seq2Seq

인코더-디코더와 Attention의 등장

텍스트 분류

LSTM 감성 분석 실습