Skip to main content

Ollama 설치

Ollama는 로컬 환경에서 대규모 언어 모델(LLM)을 실행할 수 있게 해주는 무료 프로그램입니다. 인터넷 연결 없이도 LLM을 구동할 수 있으며, NVIDIA GPU가 있으면 GPU 가속을 자동으로 지원합니다.

사전 준비

  • Windows 10 이상의 PC
  • 인터넷 연결 (설치 파일 다운로드 및 AI 모델 다운로드에 필요)
NVIDIA GPU(예: RTX 3060, 4070 등)가 있으면 AI 모델이 훨씬 빠르게 실행됩니다. GPU가 없어도 CPU만으로 실행할 수 있지만, 속도가 느릴 수 있습니다.
1

Ollama 공식 홈페이지에 접속하기

웹 브라우저(크롬, 엣지 등)를 열고 주소창에 ollama.com을 입력하여 접속합니다.화면 중앙에 “Start building with open models”이라는 문구가 보입니다. 오른쪽 상단에 있는 Download 버튼을 클릭하세요.Ollama 공식 홈페이지
홈페이지에 보이는 PowerShell 명령어(irm https://ollama.com/install.ps1 | iex)로도 설치할 수 있습니다. 아래에서는 설치 파일 다운로드 방식을 사용합니다.
2

Windows용 설치 파일 다운로드하기

다운로드 페이지가 열리면 상단에 macOS, Linux, Windows 세 가지 운영체제 탭이 보입니다. Windows 탭이 선택되어 있는지 확인하세요 (Windows 아이콘이 있는 탭입니다).그 아래에 있는 Download for Windows 버튼을 클릭하면 설치 파일(OllamaSetup.exe)이 다운로드됩니다.Windows용 다운로드 페이지
“Requires Windows 10 or later”라고 적혀 있습니다. Windows 10 또는 Windows 11을 사용 중이면 문제없이 설치할 수 있습니다.
3

설치 프로그램 실행하기

다운로드가 완료되면, 다운로드된 설치 파일(OllamaSetup.exe)을 더블클릭하여 실행합니다.“Setup - Ollama version 0.16.3”이라는 제목의 설치 창이 나타납니다. 화면에 “Let’s get you up and running with your own large language models.”라는 안내 문구가 보입니다.하단의 Install 버튼을 클릭하여 설치를 시작하세요. (오른쪽의 Cancel 버튼은 설치를 취소할 때 사용합니다.)설치 시작 화면 (v0.16.3)
4

설치가 진행되는 동안 기다리기

Install 버튼을 클릭하면 자동으로 설치가 진행됩니다. 화면에 “Extracting files…”라는 메시지와 함께 진행 바(초록색 막대)가 표시됩니다.NVIDIA GPU가 장착된 PC에서는 CUDA v12 라이브러리(GPU 가속에 필요한 파일들)도 함께 설치됩니다. 이 과정은 자동으로 이루어지므로 별도로 설정할 것은 없습니다.보통 1~2분 정도 소요됩니다.CUDA v12 라이브러리 추출 중
설치 중에 창을 닫거나 Cancel 버튼을 누르면 설치가 중단됩니다. 진행 바가 완료될 때까지 대기하세요.

설치 확인하기

설치가 완료되면 Ollama가 시스템 트레이(화면 오른쪽 하단 시계 옆)에 작은 아이콘으로 실행됩니다. 터미널(PowerShell 또는 명령 프롬프트)을 열고 다음 명령어를 입력하면 AI 모델을 바로 다운로드하고 실행할 수 있습니다.
ollama run llama3
ollama run llama3 명령어를 처음 실행하면 모델 파일(약 4GB)을 자동으로 다운로드합니다. 다운로드가 끝나면 바로 대화를 시작할 수 있습니다. 대화를 종료하려면 /bye를 입력하세요.
다른 모델을 사용하고 싶다면 ollama.com/library에서 사용 가능한 모델 목록을 확인할 수 있습니다. 예를 들어 ollama run gemma2ollama run mistral 등을 실행할 수 있습니다.