Skip to main content
자연어 처리(NLP)의 핵심 개념과 실무 기술을 체계적으로 학습합니다. 텍스트 전처리부터 Transformer 아키텍처, 사전학습 언어 모델, 그리고 LLM 활용까지의 완전한 학습 경로를 제공합니다.

학습 경로

아래 다이어그램은 NLP 탭의 전체 학습 순서를 보여줍니다. 각 단계는 이전 단계의 지식을 기반으로 합니다.
추천 시작점: NLP를 처음 접하신다면 NLP 개론에서 전체 흐름을 파악한 후, 텍스트 전처리부터 순서대로 진행합니다. 이미 Transformer를 이해하고 계신다면 사전학습 언어 모델이나 NLP 태스크로 바로 이동할 수 있습니다.

DL 선수 지식 체크리스트

NLP 탭은 딥러닝 기초 지식을 전제로 합니다. 아래 항목을 확인합니다.
항목필수 수준참고
신경망 기초퍼셉트론, 역전파, 손실 함수 이해DL 탭
PyTorch텐서 연산, nn.Module, DataLoader 사용DL 탭
시퀀스 모델RNN/LSTM의 동작 원리 이해DL 탭
임베딩벡터 표현의 의미와 학습 원리DL 탭
위 항목 중 2개 이상 익숙하지 않다면, DL 탭을 먼저 학습하는 것을 권장합니다.

학습 그룹

NLP 개론

규칙 기반에서 LLM까지, NLP의 발전 역사와 주요 태스크를 소개합니다

NLP 전체 지도

학습 경로와 후행 탭(RAG, Agent, Fine-Tuning)과의 연결 관계를 시각화합니다

텍스트 전처리

토큰화, 한국어 형태소 분석, 텍스트 정제, 벡터화를 다룹니다

Attention과 Transformer

Self-Attention부터 Transformer 전체 아키텍처까지 수식과 코드로 구현합니다

사전학습 언어 모델

BERT, GPT, LLaMA 등 주요 PLM의 구조와 특성을 비교 분석합니다

NLP 핵심 태스크

분류, NER, QA, 요약, 번역 등 실무 태스크를 HuggingFace로 구현합니다

프롬프트 엔지니어링

Few-shot, Chain-of-Thought, ReAct 등 프롬프트 설계 기법을 학습합니다

LLM 활용 실무

API 활용, Function Calling, Output Parsing, 안전장치 적용을 다룹니다

실무 프로젝트

감성 분석, 챗봇, 문서 QA 등 종합 프로젝트를 진행합니다