| 순서 | 주제 | 핵심 내용 |
|---|---|---|
| 1 | RNN | 순환 구조, BPTT, 기울기 소실 |
| 2 | LSTM / GRU | 게이트 메커니즘으로 장기 의존성 해결 |
| 3 | Seq2Seq | 인코더-디코더, Teacher Forcing, Attention 배경 |
| 4 | 텍스트 분류 | LSTM으로 감성 분석 구현 |
Attention과 Transformer 아키텍처는 NLP 탭에서 상세히 다룹니다. 이 그룹에서는 Transformer 이전의 시퀀스 모델링 맥락과 Attention의 등장 배경을 학습합니다.
RNN
순환 신경망의 기본 구조와 한계
LSTM / GRU
게이트 메커니즘으로 장기 의존성 해결
Seq2Seq
인코더-디코더와 Attention의 등장
텍스트 분류
LSTM 감성 분석 실습

