Skip to main content
ChatGPT 스타일의 웹 UI입니다. Ollama, vLLM, OpenAI 등 다양한 LLM 백엔드와 연결하여 웹 브라우저에서 대화형 AI를 사용할 수 있습니다.

어디에 쓰이나요?

  • LLM 채팅 인터페이스: 로컬 모델(Ollama)이나 API(OpenAI, Anthropic)를 웹 UI로 사용
  • 교육 환경: 수강생들이 LLM을 웹 브라우저에서 바로 체험
  • 팀 공유: 여러 사용자가 같은 서버의 LLM을 공유 (사용자 관리, 대화 기록 저장)
  • RAG: 문서를 업로드하고 문서 기반 질의응답
  • 모델 비교: 여러 모델을 동시에 사용하고 응답을 비교

Docker Compose

Ollama 연동

docker-compose.yml
services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    restart: unless-stopped
    ports:
      - "3000:8080"
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
    volumes:
      - open_webui_data:/app/backend/data
    depends_on:
      - ollama

  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ollama_data:/root/.ollama
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]

volumes:
  open_webui_data:
  ollama_data:

OpenAI API 연동 (GPU 불필요)

docker-compose.yml
services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    restart: unless-stopped
    ports:
      - "3000:8080"
    environment:
      - OPENAI_API_BASE_URL=https://api.openai.com/v1
      - OPENAI_API_KEY=${OPENAI_API_KEY}
    volumes:
      - open_webui_data:/app/backend/data

volumes:
  open_webui_data:

실행

docker compose up -d

접속 확인

브라우저에서 http://localhost:3000으로 접속합니다. 초기 접속 시 관리자 계정을 생성합니다. Ollama 연동 시, 모델을 먼저 다운로드해야 합니다.
docker exec -it ollama ollama pull llama3.1:8b

기본 정보

항목
웹 UI 포트3000
Ollama 포트11434
GPUOllama 사용 시 권장 (OpenAI 연동 시 불필요)

라이선스

구분내용
라이선스MIT License
개인 사용자유롭게 사용 가능
상업적 사용자유롭게 사용 가능, 수정/재배포 제한 없음

참고

설치 점검 목록

  • docker compose up -ddocker compose ps로 컨테이너 상태를 확인했습니다.
  • 기본 포트/계정/비밀번호를 문서대로 점검했습니다.
  • 운영용으로 사용할 때 기본 비밀번호/시크릿 값을 변경했습니다.
  • 장애 분석을 위해 docker compose logs -f 확인 방법을 숙지했습니다.

문제 해결 가이드

  • 컨테이너가 실행되지 않으면 docker compose logs -f로 오류 원인을 먼저 확인합니다.
  • 포트 충돌이 나면 기존 프로세스를 종료하거나 포트 매핑 값을 변경합니다.
  • 이미지 pull 실패 시 네트워크 연결 및 레지스트리 접근 권한을 확인합니다.
  • 설정 변경 후 문제가 지속되면 docker compose down 후 다시 up -d로 재기동합니다.

관련 문서

Setup 홈

운영체제별 설치 흐름을 다시 확인합니다.

다음: Langflow

다음 설치 단계를 이어서 진행합니다.