TEI (Text Embeddings Inference)
HuggingFace에서 개발한 임베딩 추론 서버입니다. 텍스트를 벡터(임베딩)로 변환하는 작업에 최적화되어 있습니다.어디에 쓰이나요?
- RAG 파이프라인: 문서를 임베딩으로 변환하여 벡터 DB(Qdrant, Milvus 등)에 저장
- 시맨틱 검색: 사용자 질문을 임베딩으로 변환하여 유사한 문서 검색
- 문장 유사도: 두 텍스트 간의 의미적 유사도 계산
- 리랭킹(Reranking): 검색 결과의 관련성을 재평가하여 순위 재정렬
Docker Compose
GPU 환경
docker-compose.yml
CPU 환경
GPU가 없는 환경에서는 CPU 전용 이미지를 사용합니다.docker-compose.yml
실행
접속 확인
기본 정보
| 항목 | 값 |
|---|---|
| API 포트 | 8080 |
| API 형식 | OpenAI Embeddings API 호환 |
| GPU | 선택 (CPU 전용 이미지 제공) |
주요 실행 옵션
| 옵션 | 설명 |
|---|---|
--model-id | HuggingFace 임베딩 모델 ID |
--max-client-batch-size | 최대 배치 크기 |
--max-concurrent-requests | 최대 동시 요청 수 |
--tokenization-workers | 토크나이저 워커 수 |
추천 임베딩 모델
| 모델 | 차원 | 다국어 | 용도 |
|---|---|---|---|
BAAI/bge-m3 | 1024 | O | 범용 다국어 임베딩 |
BAAI/bge-large-en-v1.5 | 1024 | X | 영어 고성능 |
intfloat/multilingual-e5-large | 1024 | O | 다국어 검색 |
sentence-transformers/all-MiniLM-L6-v2 | 384 | X | 경량 영어 임베딩 |
라이선스
| 구분 | 내용 |
|---|---|
| 라이선스 | Apache License 2.0 |
| 개인 사용 | 자유롭게 사용 가능 |
| 상업적 사용 | 자유롭게 사용 가능. 단, 사용하는 모델의 라이선스는 별도 확인 필요 |

