Skip to main content

딥러닝 전체 지도

학습 목표

  • 딥러닝 아키텍처의 주요 계보(MLP, CNN, RNN, Transformer, 생성 모델)를 구분할 수 있다
  • 각 아키텍처가 해결하는 문제 유형과 응용 분야를 연결할 수 있다
  • 이 탭의 학습 순서와 후행 탭(Vision, NLP, RAG 등)과의 관계를 이해한다

왜 중요한가

딥러닝은 지난 10여 년간 폭발적으로 발전하며 수많은 아키텍처가 등장했습니다. 전체 지도를 먼저 파악하면 각 아키텍처의 위치와 관계를 이해한 상태에서 깊이 있는 학습을 진행할 수 있습니다.

아키텍처 계보

아키텍처 분류

판별 모델 vs 생성 모델

딥러닝 아키텍처는 크게 두 가지 방향으로 나뉩니다.
분류목표대표 아키텍처응용
판별 모델입력 → 레이블/결정CNN, RNN, Transformer (인코더)분류, 탐지, 번역
생성 모델잠재 분포 → 새로운 데이터VAE, GAN, Diffusion이미지 생성, 텍스트 생성

입력 데이터별 아키텍처

데이터 유형핵심 아키텍처특징
이미지CNN, ViT공간적 지역성, 이동 불변성
시퀀스 (텍스트, 시계열)RNN, LSTM, Transformer순서 의존성, 장기 의존성
그래프GNN (Graph Neural Network)노드-에지 관계 학습
테이블 (정형)TabNet, FT-Transformer특성 간 상호작용
멀티모달CLIP, Flamingo여러 모달리티 통합

핵심 아키텍처 요약

CNN (합성곱 신경망)

합성곱 연산으로 이미지의 공간적 패턴을 계층적으로 학습합니다. 2012년 AlexNet의 ImageNet 우승 이후 컴퓨터 비전의 핵심 아키텍처가 되었습니다.
  • 핵심 연산: 합성곱(Convolution) + 풀링(Pooling)
  • 강점: 이동 불변성, 파라미터 공유로 효율적
  • 한계: 전역(global) 정보 포착이 어려움 → ViT가 보완
  • 이 탭에서: 03. CNN 그룹에서 상세 학습

RNN / LSTM / GRU (순환 신경망)

시간 순서가 있는 데이터를 처리하기 위해 은닉 상태(Hidden State)를 유지하며 순차적으로 입력을 처리합니다.
  • 핵심 개념: 은닉 상태의 순환적 전달
  • 강점: 가변 길이 시퀀스 처리
  • 한계: 장기 의존성(Long-term Dependency) 문제 → LSTM/GRU가 완화, Transformer가 근본적 해결
  • 이 탭에서: 04. 시퀀스 모델 그룹에서 상세 학습

Transformer

Self-Attention 메커니즘으로 시퀀스 내 모든 위치 간의 관계를 병렬로 계산합니다. 2017년 “Attention Is All You Need” 논문 이후 NLP를 넘어 Vision, Audio 등 거의 모든 분야의 기반 아키텍처가 되었습니다.
  • 핵심 연산: Self-Attention + Feed-Forward Network
  • 강점: 병렬 처리, 장거리 의존성 포착, 대규모 사전학습
  • 파생: BERT(인코더), GPT(디코더), T5(인코더-디코더)
Attention과 Transformer 아키텍처의 상세 내용은 NLP 탭에서 다룹니다. 이 탭에서는 Seq2Seq에서 Attention의 등장 배경을 소개하고, NLP 탭으로 연결합니다.

생성 모델

데이터의 분포를 학습하여 새로운 데이터를 생성하는 모델 계열입니다.
모델핵심 아이디어대표 응용
Autoencoder입력 → 압축 → 복원이상 탐지, 차원 축소
VAE확률적 잠재 공간에서 샘플링이미지 생성, 약물 설계
GAN생성자 vs 판별자의 적대적 학습이미지 합성, 스타일 변환
Diffusion노이즈 추가 → 단계적 제거Stable Diffusion, DALL-E

후행 탭 연결 지도

이 탭의 각 그룹이 후행 탭에서 어떤 역할을 하는지 보여줍니다.
DL 그룹VisionNLPRAGFine-TuningLLMOps
01. 신경망 기초
02. PyTorch 기본
03. CNN---
04. 시퀀스 모델--
05. 학습 실무-
06. 임베딩-
07. 생성 모델---
★ 핵심 선수 지식 / ● 중요 기반 / ○ 참고 수준 / - 직접 연결 없음

딥러닝 발전의 이정표

연도사건의의
1958Perceptron최초의 신경망 모델
1986역전파(Backpropagation) 재발견다층 신경망 학습 가능
1998LeNet-5CNN으로 필기체 인식
2012AlexNet, ImageNet 우승딥러닝 시대 개막
2014GAN, Seq2Seq, GRU생성 모델과 시퀀스 모델 발전
2015ResNet, Attention깊은 네트워크 학습, 어텐션 메커니즘
2017TransformerNLP 패러다임 전환
2018BERT, GPT사전학습 시대 개막
2020GPT-3, ViT초대규모 모델, Vision Transformer
2022Stable Diffusion, ChatGPT생성 AI 대중화
2024~GPT-4o, Gemini, Claude멀티모달 AI, 추론 능력 강화
모든 아키텍처를 깊이 이해할 필요는 없습니다. 핵심은 MLP → CNN → RNN → Transformer의 발전 흐름을 이해하고, 자신의 도메인에 필요한 아키텍처를 깊이 학습하는 것입니다. 이 탭에서는 기초를 다지고, 후행 탭에서 응용을 깊이 다룹니다.
Transformer는 NLP, Vision, Audio 등 다양한 분야에서 강력한 성능을 보이지만, 모든 문제에 최적인 것은 아닙니다. 엣지 디바이스에서는 여전히 경량 CNN이 사용되고, 실시간 시계열 처리에는 TCN(Temporal CNN)이 효율적일 수 있습니다. 문제의 특성과 자원 제약을 고려한 선택이 중요합니다.

체크리스트

  • CNN, RNN, Transformer의 핵심 차이를 한 문장으로 설명할 수 있다
  • 판별 모델과 생성 모델의 차이를 이해한다
  • 주어진 데이터 유형에 적합한 아키텍처를 선택할 수 있다
  • 이 탭의 학습 경로와 후행 탭과의 관계를 파악했다

다음 문서