Skip to main content

Open WebUI

ChatGPT 스타일의 웹 UI입니다. Ollama, vLLM, OpenAI 등 다양한 LLM 백엔드와 연결하여 웹 브라우저에서 대화형 AI를 사용할 수 있습니다.

어디에 쓰이나요?

  • LLM 채팅 인터페이스: 로컬 모델(Ollama)이나 API(OpenAI, Anthropic)를 웹 UI로 사용
  • 교육 환경: 수강생들이 LLM을 웹 브라우저에서 바로 체험
  • 팀 공유: 여러 사용자가 같은 서버의 LLM을 공유 (사용자 관리, 대화 기록 저장)
  • RAG: 문서를 업로드하고 문서 기반 질의응답
  • 모델 비교: 여러 모델을 동시에 사용하고 응답을 비교

Docker Compose

Ollama 연동

docker-compose.yml
services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    restart: unless-stopped
    ports:
      - "3000:8080"
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
    volumes:
      - open_webui_data:/app/backend/data
    depends_on:
      - ollama

  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ollama_data:/root/.ollama
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]

volumes:
  open_webui_data:
  ollama_data:

OpenAI API 연동 (GPU 불필요)

docker-compose.yml
services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    restart: unless-stopped
    ports:
      - "3000:8080"
    environment:
      - OPENAI_API_BASE_URL=https://api.openai.com/v1
      - OPENAI_API_KEY=${OPENAI_API_KEY}
    volumes:
      - open_webui_data:/app/backend/data

volumes:
  open_webui_data:

실행

docker compose up -d

접속 확인

브라우저에서 http://localhost:3000으로 접속합니다. 초기 접속 시 관리자 계정을 생성합니다. Ollama 연동 시, 모델을 먼저 다운로드해야 합니다.
docker exec -it ollama ollama pull llama3.1:8b

기본 정보

항목
웹 UI 포트3000
Ollama 포트11434
GPUOllama 사용 시 권장 (OpenAI 연동 시 불필요)

라이선스

구분내용
라이선스MIT License
개인 사용자유롭게 사용 가능
상업적 사용자유롭게 사용 가능, 수정/재배포 제한 없음

참고