LLM 애플리케이션 개발 흐름
아래 다이어그램은 LLM 기반 애플리케이션의 전형적인 개발 파이프라인입니다. 각 단계는 이 섹션의 개별 문서에서 상세하게 다룹니다.| 단계 | 주제 | 핵심 내용 | 관련 문서 |
|---|---|---|---|
| 1 | API 활용 | OpenAI, Anthropic, HuggingFace API 연동 | LLM API 활용 |
| 2 | Function Calling | 외부 도구 연동, JSON Schema 정의 | Function Calling |
| 3 | 출력 파싱 | JSON 모드, Pydantic 검증, 재시도 전략 | 출력 파싱 |
| 4 | 안전장치 | 입출력 필터링, 환각 방지, PII 보호 | 안전장치 |
| 5 | 비용 최적화 | 토큰 절약, 캐싱, 모델 라우팅 | 비용 최적화 |
사전 지식
이 섹션을 학습하기 위해 다음 개념에 대한 이해가 필요합니다.- 사전학습 언어 모델: GPT, Claude 등 디코더 모델의 기본 동작 원리
- 프롬프트 엔지니어링: 시스템 프롬프트, Few-shot, Chain-of-Thought 기법
- Python 기초:
async/await,requests,json모듈 활용
후행 탭 연결
이 섹션의 학습 내용은 후행 탭에서 다음과 같이 확장됩니다.| 이 섹션 | 후행 탭 | 연결점 |
|---|---|---|
| API 활용 | LLMOps | API 기반 서빙과 모니터링 |
| Function Calling | Agent | Tool Use 기반 에이전트 아키텍처 |
| 출력 파싱 | Agent / RAG | 구조화된 에이전트 출력, 응답 포맷팅 |
| 안전장치 | LLMOps | 프로덕션 안전장치와 모니터링 |
| 비용 최적화 | LLMOps | 비용 관리 대시보드와 자동화 |
문서 목록
LLM API 활용
OpenAI, Anthropic, HuggingFace API 설정부터 스트리밍, 에러 핸들링까지 실습합니다
Function Calling
JSON Schema 기반 도구 정의와 멀티턴 호출 패턴을 학습합니다
출력 파싱
JSON 모드, Pydantic 검증, instructor 라이브러리로 구조화된 출력을 추출합니다
안전장치
프롬프트 인젝션 방지, PII 마스킹, 환각 검증 등 프로덕션 안전 전략을 다룹니다
비용 최적화
토큰 절약, 시맨틱 캐싱, 모델 라우팅 전략으로 운영 비용을 최적화합니다

