Ollama モデル管理完全ガイド:ダウンロード、切り替え、削除とバージョン管理
導入
正直なところ、Ollama を使い始めたとき、モデルファイルが本当に大きいということに気づいていませんでした。
ある日、SSD の容量警告が出ました。~/.ollama ディレクトリを開いてみると—40GB 以上。その時思いました:これらのモデルは使ってないのに、どうやって削除するの?どうやってバージョンを切り替えるの?どうやって今後同じ失敗を避けるの?
この記事は、その失敗から学んだまとめです。Ollama モデル管理の核心コマンド、ダウンロード、切り替え、削除、そしてバージョン管理のベストプラクティスについて話しましょう。読み終わった後、ローカル LLM ライブラリを冷静に管理できるようになり、ディスク容量の警告で驚くことはなくなります。
核心コマンド早見表
まず、早見表を提示します。後でそれぞれ詳しく説明します。
| コマンド | 用途 | 例 |
|---|---|---|
ollama pull | モデルをダウンロード(バージョン指定) | ollama pull llama3.2:latest |
ollama run | モデルを実行 | ollama run llama3.2 |
ollama list | ローカルモデル一覧を表示 | ollama list |
ollama ps | 実行中のモデルを表示 | ollama ps |
ollama stop | 実行中のモデルを停止 | ollama stop llama3.2 |
ollama rm | モデルを削除 | ollama rm llama3.2 |
ollama show | モデル詳細情報を表示 | ollama show llama3.2 |
ollama create | カスタムモデルを作成 | ollama create mymodel -f Modelfile |
ollama serve | API サーバーを起動 | ollama serve |
この表は日常管理の 90% のシナリオをカバーしています。これらのコマンドを覚えれば、残りは組み合わせて使うだけです。
モデルダウンロード:バージョン選択が重要
特定バージョンのダウンロード
ollama pull でモデルをダウンロードします—このコマンドは誰でも知っているでしょう。しかし、見落としやすい詳細があります:バージョンタグ。
# 最新版をダウンロード
ollama pull llama3.2:latest
# 特定のパラメータサイズをダウンロード
ollama pull llama3.1:70b
# 特定の量子化バージョンをダウンロード
ollama pull mistral:7b-q4_K_M
疑問に思うかもしれません:これらのタグの違いは何でしょうか?
実は簡単です:
latest:デフォルトタグ、最新安定版7b、70b:パラメータサイズ、数字が大きいほどモデルが強力ですが、リソースも多く消費しますq4_K_M、q3_K_L:量子化レベル、数字が小さいほどファイルサイズが小さくなり、精度は少し低下します
一言で言えば:ハードウェアに合わせてバージョンを選択します。
ハードウェア要件早見表
盲目的にダウンロードしないでください。まずこの表を確認し、あなたの構成と照らし合わせてください:
| モデルサイズ | パラメータ数 | ファイルサイズ | 最小 RAM | 推奨 RAM | VRAM 必要量 |
|---|---|---|---|---|---|
| 小規模 | 1-3B | 1-2GB | 4GB | 8GB | 2-4GB |
| 中規模 | 7-8B | 4-5GB | 8GB | 16GB | 6-8GB |
| 大規模 | 13-14B | 7-8GB | 16GB | 32GB | 10-12GB |
| 超大規模 | 70B | 40GB+ | 32GB | 64GB+ | 24GB+ |
私の経験:8GB RAM のマシンで 7B モデルを実行するのは辛うじて可能ですが、遅いです。16GB なら快適になります。70B モデルに関しては—正直に言って、家庭用マシンでは基本的に実行できません。デュアル RTX 4090 がない限り。
一括ダウンロードスクリプト
複数のモデルをダウンロードする場合、一つずつ入力するのは疲れます。スクリプトを書きましょう:
#!/bin/bash
# download_models.sh
MODELS=(
"llama3.2:latest"
"mistral:7b"
"qwen2:7b"
"deepseek-r1:7b"
)
for model in "${MODELS[@]}"; do
echo "ダウンロード中: $model"
ollama pull "$model"
echo "---"
done
echo "全モデルのダウンロード完了!"
download_models.sh として保存し、実行します:
chmod +x download_models.sh
./download_models.sh
これで、必要なモデルを一度にすべてダウンロードできます。
モデル切り替え:GPU を idle 状態にしない
ローカルモデル一覧の確認
モデルをダウンロードした後、まず何を持っているか確認します:
ollama list
出力はこのようになります:
NAME ID SIZE MODIFIED
llama3.2:latest a80c4f17acd5 2.0GB 2 days ago
mistral:7b f974a74358d6 4.1GB 5 days ago
qwen2:7b d53d04290064 2.3GB 10 days ago
各フィールドの意味:
- NAME:モデル名とタグ
- ID:一意識別子(モデル削除時に必要になる可能性)
- SIZE:ファイルサイズ、誰が容量を占有しているか一目瞭然
- MODIFIED:最終更新日時、古いモデルかどうか判断できる
ここを見れば、どのモデルがよく使われているか、どれを削除できるかがわかります。
特定モデルの実行
モデルの切り替えは簡単、直接 ollama run を実行:
# 基本的な実行
ollama run llama3.2
# GPU 加速付き
ollama run llama3.2 --gpu
#詳細モード(読み込み時間を表示)
ollama run llama3.2 --verbose
一つの詳細:モデルがダウンロードされていない場合、ollama run は自動的に pull します。そのため、直接 run を実行してもよく、事前に pull する必要はありません。
しかし、一つの注意点があります:モデルは起動後 GPU/CPU を占有し続けます、手動で停止しない限り。そのため、切り替える前に、前のモデルを停止します。
実行中モデルの停止
まず、どのモデルが実行中か確認します:
ollama ps
出力は以下のようになります:
NAME ID SIZE PROCESSOR UNTIL
llama3.2 a80c4f17acd5 2.0GB 100% GPU 4 minutes from now
モデルが実行中の場合、停止します:
ollama stop llama3.2
これで GPU 空間が解放され、次のモデルに切り替えできます。
正直に言って、以前はよく stop を忘れて、マシンが遅くなり続けました。習慣をつけましょう:切り替え前に ps を実行し、その後 stop。
モデル削除:ディスク容量を解放する鍵
単一モデルの削除
重要な部分に到達しました—モデルの削除です。
ollama rm llama3.2
出力:
deleted 'llama3.2'
これだけ簡単です。しかし、一つの注意点:削除前にモデル名を確認してください、誤削除を避けるために。まず ollama list で確認することを推奨します。
また、削除後ファイルは即座に消えません、クリーンアッププロセスがあります。容量がすぐに解放されない場合、数分待ってから再確認してください。
一括削除スクリプト(whitelist 付き)
モデルライブラリが乱雑で、クリーンアップしたいが、よく使ういくつかは削除したい場合—スクリプトを書きましょう:
#!/bin/bash
# cleanup_models.sh
# whitelist:これらのモデルは削除しない
KEEP=(
"llama3.2:latest"
"mistral:7b"
)
# 全モデルを取得
ALL_MODELS=$(ollama list | tail -n +2 | awk '{print $1}')
for model in $ALL_MODELS; do
# whitelist に含まれるかチェック
keep=false
for keeper in "${KEEP[@]}"; do
if [ "$model" == "$keeper" ]; then
keep=true
break
fi
done
# whitelist にないなら削除
if [ "$keep" = false ]; then
echo "削除中: $model"
ollama rm "$model"
else
echo "保持中: $model"
fi
done
echo "クリーンアップ完了!"
このスクリプトのロジック:まず全モデルをリストし、その後一つずつチェックします。whitelist のものは保持、他は削除。
KEEP 配列をあなたのニーズに合わせて変更し、よく使うモデルを記入できます。
モデル保存パス管理
モデルを削除したが、容量がまだ足りない?パス設定に問題があるかもしれません。
デフォルトでは、モデルは以下の場所に保存されます:
- Windows:
C:\Users\<username>\.ollama\models - Linux/macOS:
~/.ollama/models
システムディスクの容量が不足している場合、他のディスクに移行できます。環境変数 OLLAMA_MODELS を設定します:
# Linux/macOS
export OLLAMA_MODELS=/path/to/your/models
# Windows(PowerShell)
$env:OLLAMA_MODELS="D:\ollama\models"
設定後、新しくダウンロードしたモデルは新しいパスに保存されます。古いモデルは元の場所にあり、手動で移動が必要です。
私の提案:最初にパスを設定してください、容量が爆発してから移行するのを避けるために。移行は複雑で、エラーが起きやすいです。
バージョン管理:混乱を避ける戦略
バージョン混乱の典型的シナリオ
このような状況に遭遇したかもしれません:
llama3.1:latest
llama3.1:8b
llama3.2:latest
llama3.2:1b
llama3.2:3b
多数のバージョンが一緒に積み重ねられ、どれがよく使われているか、どれがテスト用か、どれを削除するべきかわかりません。
混乱を避ける三つの提案
-
タグで用途を区別
latest:日常使用のメインバージョンtest、dev:テスト用バージョン- 多すぎるパラメータサイズバージョンをダウンロードしない、適切な一つを選択
-
定期的なクリーンアップ
- 一週間に一度
ollama listを実行、余分なものがあるか確認 - 前述のクリーンアップスクリプトを使用、モデルライブラリを簡潔に保つ
- 一週間に一度
-
命名を意味を持たせる
- カスタムモデルの場合、明確な命名を使用
myproject-llama3.2のように、mymodel1、mymodel2という名前は避ける
モデル更新(インクリメンタルダウンロード)
モデルが更新されたら、新バージョンを pull したい場合どうしますか?
再度 pull を実行:
ollama pull llama3.2:latest
良いニュース:Ollama は差分部分のみをダウンロードします、全体のファイルを再 pull しません。そのため更新は高速で、帯域幅を心配する必要はありません。
カスタムモデルバリエーション
モデルパラメータを調整したい場合(例えば temperature を変更、システムプロンプトを追加)、Modelfile を使用できます:
# Modelfile を作成
FROM llama3.2
PARAMETER temperature 0.7
SYSTEM """あなたは専門的な技術アシスタントです、簡潔な言葉で質問に答えてください。"""
# カスタムモデルを作成
ollama create my-tech-assistant -f Modelfile
# 実行
ollama run my-tech-assistant
これでカスタマイズ版が作成されます。今後使用しない場合、同様に ollama rm で削除できます。
##よくある問題と解決策
ダウンロードが 99% で停止
私もこの失敗を経験しました。モデルダウンロードが最後の 1% で突然停止します。
原因は通常ネットワーク中断です。解決方法:
# Ctrl+C でダウンロードをキャンセル
# その後再度 pull
ollama pull llama3.2
良いニュース:進捗は保存され、最初からダウンロードする必要はありません。通常、第二回で成功します。
削除後に容量が解放されない
モデルを削除したが、df -h を見ると容量がまだ満杯です。
可能性のある原因:
- クリーンアッププロセスがまだ終わっていない、数分待つ
- 残留ファイルが存在、手動でパスをチェック
手動チェック:
# モデルディレクトリのサイズを表示
du -sh ~/.ollama/models
# まだ大きい場合、中に入ってチェック
ls -lh ~/.ollama/models/blobs/
残留ファイルを見つけ、手動で削除します。
モデル切り替え失敗
ollama run がエラーを報告、可能性:
- リソース不足:RAM または VRAM が足りない
- 設定エラー:Modelfile に問題がある
解決方法:
- まず
ollama psで他のモデルがリソースを占有していないか確認 --verboseで詳細なエラー情報を表示- カスタムモデルの場合、Modelfile の構文をチェック
最後に
これまで話しましたが、実際核心は三つのアクションだけ:ダウンロード、切り替え、削除。これらのコマンドをマスターし、少し計画を立てれば(盲目的にバージョンをダウンロードしない)、ローカル LLM ライブラリは簡潔になります。
ところで、OpenClaw ユーザーの場合、モデル管理はさらに重要です—OpenClaw は Ollama に依存し、モデルバージョンはアプリケーション体験に直接影響します。定期的にモデルライブラリをチェックし、使用しないものを削除し、簡潔に保つことを推奨します。
質問がある場合、いつでも早見表をチェックし、または該当する章に戻ってください。この記事がいくつかの失敗を避ける助けになることを願っています。
FAQ
現在ダウンロードされている全モデルを表示する方法は?
モデル削除後にディスク容量がすぐに増加しない場合どうしますか?
• du -sh ~/.ollama/models でディレクトリサイズをチェック
• blobs ディレクトリに入って残留ファイルを探す
• 残留モデルファイルを手動で削除
多すぎるバージョンをダウンロードして混乱を避ける方法は?
モデルダウンロードが 99% で停止した場合どう解決しますか?
70B モデルは家庭用コンピュータで実行できますか?
全ローカルモデルを一括更新する方法は?
ollama list | tail -n +2 | awk '{print $1}' | while read model; do
ollama pull "$model"
done
Ollama は差分部分のみをダウンロードし、更新は高速です。定期的にこのスクリプトを実行し、モデルライブラリを最新に保ちます。
5 min read · 公開日: 2026年4月2日 · 更新日: 2026年4月5日
関連記事
Ollama Modelfile パラメータ詳解:カスタムモデル作成の完全ガイド
Ollama Modelfile パラメータ詳解:カスタムモデル作成の完全ガイド
Ollama + Open WebUI: ローカルでChatGPTライクなインターフェースを構築(完全ガイド)
Ollama + Open WebUI: ローカルでChatGPTライクなインターフェースを構築(完全ガイド)
Ollama API 呼び出し:curl から OpenAI SDK 互換インターフェースまで

コメント
GitHubアカウントでログインしてコメントできます