Skip to main content

AnythingLLM

올인원 RAG 데스크톱/서버 애플리케이션입니다. 문서 업로드, 임베딩, 벡터 저장, LLM 대화까지 하나의 인터페이스에서 처리합니다.

어디에 쓰이나요?

  • 문서 기반 챗봇: PDF, Word, 웹페이지 등을 업로드하고 문서 내용에 대해 질의응답
  • 팀 지식 베이스: 회사 내부 문서를 올려두고 팀원들이 자연어로 검색
  • 멀티 LLM: OpenAI, Anthropic, Ollama 등 다양한 LLM을 선택적으로 사용
  • 프라이버시: 로컬 LLM + 로컬 임베딩 + 내장 벡터 DB로 완전한 오프라인 운영 가능
Dify와 비교하면 설정이 간단하고, 비개발자도 바로 사용할 수 있는 것이 장점입니다. 워크플로우 구성보다는 문서 기반 대화에 집중합니다.

Docker Compose

docker-compose.yml
services:
  anythingllm:
    image: mintplexlabs/anythingllm:latest
    container_name: anythingllm
    restart: unless-stopped
    ports:
      - "3001:3001"
    cap_add:
      - SYS_ADMIN
    environment:
      - STORAGE_DIR=/app/server/storage
    volumes:
      - anythingllm_data:/app/server/storage

volumes:
  anythingllm_data:

실행

docker compose up -d

접속 확인

브라우저에서 http://localhost:3001로 접속합니다. 초기 접속 시 설정 마법사가 표시됩니다. 설정 마법사에서 LLM 제공자(OpenAI, Ollama 등), 임베딩 모델, 벡터 DB를 선택합니다.

기본 정보

항목
웹 UI 포트3001
데이터 저장 경로anythingllm_data 볼륨

라이선스

구분내용
라이선스MIT License
개인 사용자유롭게 사용 가능
상업적 사용자유롭게 사용 가능, 수정/재배포 제한 없음

참고