Natural Language Processing
자연어 처리(NLP)의 핵심 개념과 실무 기술을 체계적으로 학습합니다. 텍스트 전처리부터 Transformer 아키텍처, 사전학습 언어 모델, 그리고 LLM 활용까지의 완전한 학습 경로를 제공합니다.학습 경로
아래 다이어그램은 NLP 탭의 전체 학습 순서를 보여줍니다. 각 단계는 이전 단계의 지식을 기반으로 합니다.DL 선수 지식 체크리스트
NLP 탭은 딥러닝 기초 지식을 전제로 합니다. 아래 항목을 확인해 주세요.학습 그룹
NLP 개론
규칙 기반에서 LLM까지, NLP의 발전 역사와 주요 태스크를 소개합니다
NLP 전체 지도
학습 경로와 후행 탭(RAG, Agent, Fine-Tuning)과의 연결 관계를 시각화합니다
텍스트 전처리
토큰화, 한국어 형태소 분석, 텍스트 정제, 벡터화를 다룹니다
Attention과 Transformer
Self-Attention부터 Transformer 전체 아키텍처까지 수식과 코드로 구현합니다
사전학습 언어 모델
BERT, GPT, LLaMA 등 주요 PLM의 구조와 특성을 비교 분석합니다
NLP 핵심 태스크
분류, NER, QA, 요약, 번역 등 실무 태스크를 HuggingFace로 구현합니다
프롬프트 엔지니어링
Few-shot, Chain-of-Thought, ReAct 등 프롬프트 설계 기법을 학습합니다
LLM 활용 실무
API 활용, Function Calling, Output Parsing, 안전장치 적용을 다룹니다
실무 프로젝트
감성 분석, 챗봇, 문서 QA 등 종합 프로젝트를 진행합니다

