어디에 쓰이나요?
- LLM 채팅 인터페이스: 로컬 모델(Ollama)이나 API(OpenAI, Anthropic)를 웹 UI로 사용
- 교육 환경: 수강생들이 LLM을 웹 브라우저에서 바로 체험
- 팀 공유: 여러 사용자가 같은 서버의 LLM을 공유 (사용자 관리, 대화 기록 저장)
- RAG: 문서를 업로드하고 문서 기반 질의응답
- 모델 비교: 여러 모델을 동시에 사용하고 응답을 비교
Docker Compose
Ollama 연동
docker-compose.yml
OpenAI API 연동 (GPU 불필요)
docker-compose.yml
실행
접속 확인
브라우저에서http://localhost:3000으로 접속합니다. 초기 접속 시 관리자 계정을 생성합니다.
Ollama 연동 시, 모델을 먼저 다운로드해야 합니다.
기본 정보
| 항목 | 값 |
|---|---|
| 웹 UI 포트 | 3000 |
| Ollama 포트 | 11434 |
| GPU | Ollama 사용 시 권장 (OpenAI 연동 시 불필요) |
라이선스
| 구분 | 내용 |
|---|---|
| 라이선스 | MIT License |
| 개인 사용 | 자유롭게 사용 가능 |
| 상업적 사용 | 자유롭게 사용 가능, 수정/재배포 제한 없음 |
참고
설치 점검 목록
docker compose up -d후docker compose ps로 컨테이너 상태를 확인했습니다.- 기본 포트/계정/비밀번호를 문서대로 점검했습니다.
- 운영용으로 사용할 때 기본 비밀번호/시크릿 값을 변경했습니다.
- 장애 분석을 위해
docker compose logs -f확인 방법을 숙지했습니다.
문제 해결 가이드
- 컨테이너가 실행되지 않으면
docker compose logs -f로 오류 원인을 먼저 확인합니다. - 포트 충돌이 나면 기존 프로세스를 종료하거나 포트 매핑 값을 변경합니다.
- 이미지 pull 실패 시 네트워크 연결 및 레지스트리 접근 권한을 확인합니다.
- 설정 변경 후 문제가 지속되면
docker compose down후 다시up -d로 재기동합니다.
관련 문서
Setup 홈
운영체제별 설치 흐름을 다시 확인합니다.
다음: Langflow
다음 설치 단계를 이어서 진행합니다.

