Ollama ローカルLLM セットアップガイド
完全ローカルでLLMを動かすための設定手順。API課金なし、インターネット不要。
費用
無料- 完全ローカル実行
- API課金なし
- インターネット不要
必要なもの
- RAM 8GB以上(16GB推奨)
- ストレージ 10GB以上
- GPU推奨(なくても動く)
インストール
01. Ollamaをダウンロード
https://ollama.com/download
Mac / Windows / Linux対応
02. インストール実行
ダウンロードしたファイルを実行
03. モデルをダウンロード
ollama pull llama3.2
軽量版: ollama pull llama3.2:3b
04. 実行
ollama run llama3.2
チャットが開始される
API利用
01. APIエンドポイント
Ollamaはデフォルトで localhost:11434 でAPIを公開
02. curlで確認
curl http://localhost:11434/api/generate -d '{
"model": "llama3.2",
"prompt": "Hello!"
}'
03. Pythonから使用
import requests
response = requests.post(
"http://localhost:11434/api/generate",
json={"model": "llama3.2", "prompt": "Hello!", "stream": False}
)
print(response.json()["response"])
人気モデル
- llama3.2 - Meta製、汎用
- mistral - 軽量で高性能
- codellama - コード生成特化
- phi3 - Microsoft製、軽量
参考リンク
ここから先は、よくある質問と詰まりポイントを詳しく解説します。
Q&A - インストール関連
Windowsで動かない
- Windows 10以降が必要
- WSL2経由で動かす方法もある
- インストーラーを管理者権限で実行
Linuxでのインストール
curl -fsSL https://ollama.com/install.sh | sh
Q&A - パフォーマンス
動作が遅い
- 小さいモデルに変更(7b→3b)
- GPU利用を確認(NVIDIA/Apple Silicon)
- 他のアプリを閉じてRAMを確保
GPUが使われていない
- NVIDIA: CUDAドライバをインストール
- Apple Silicon: 自動でMetal利用
- 確認:
ollama psでプロセス確認
必要なスペック
- 3Bモデル: RAM 4GB〜
- 7Bモデル: RAM 8GB〜
- 13Bモデル: RAM 16GB〜
- 70Bモデル: RAM 64GB〜
Q&A - モデル関連
モデルの保存場所
- Mac/Linux:
~/.ollama/models - Windows:
%USERPROFILE%\.ollama\models
モデルを削除したい
ollama rm llama3.2
カスタムモデルを使いたい
Modelfileを作成してビルド:
ollama create mymodel -f Modelfile
Q&A - API関連
OpenAI互換APIとして使いたい
Ollamaは /v1/chat/completions エンドポイントをサポート:
curl http://localhost:11434/v1/chat/completions -d '{
"model": "llama3.2",
"messages": [{"role": "user", "content": "Hello"}]
}'
LangChainで使いたい
from langchain_community.llms import Ollama
llm = Ollama(model="llama3.2")
response = llm.invoke("Hello!")
外部からアクセスしたい
環境変数でバインドアドレス変更:
OLLAMA_HOST=0.0.0.0 ollama serve
参考リンク
タグ: #Ollama #ローカルLLM #Llama #無料 #オフライン