言語を切り替える
テーマを切り替える

Ollama モデル管理完全ガイド:ダウンロード、切り替え、削除とバージョン管理

導入

正直なところ、Ollama を使い始めたとき、モデルファイルが本当に大きいということに気づいていませんでした。

ある日、SSD の容量警告が出ました。~/.ollama ディレクトリを開いてみると—40GB 以上。その時思いました:これらのモデルは使ってないのに、どうやって削除するの?どうやってバージョンを切り替えるの?どうやって今後同じ失敗を避けるの?

この記事は、その失敗から学んだまとめです。Ollama モデル管理の核心コマンド、ダウンロード、切り替え、削除、そしてバージョン管理のベストプラクティスについて話しましょう。読み終わった後、ローカル LLM ライブラリを冷静に管理できるようになり、ディスク容量の警告で驚くことはなくなります。


核心コマンド早見表

まず、早見表を提示します。後でそれぞれ詳しく説明します。

コマンド用途
ollama pullモデルをダウンロード(バージョン指定)ollama pull llama3.2:latest
ollama runモデルを実行ollama run llama3.2
ollama listローカルモデル一覧を表示ollama list
ollama ps実行中のモデルを表示ollama ps
ollama stop実行中のモデルを停止ollama stop llama3.2
ollama rmモデルを削除ollama rm llama3.2
ollama showモデル詳細情報を表示ollama show llama3.2
ollama createカスタムモデルを作成ollama create mymodel -f Modelfile
ollama serveAPI サーバーを起動ollama serve

この表は日常管理の 90% のシナリオをカバーしています。これらのコマンドを覚えれば、残りは組み合わせて使うだけです。


モデルダウンロード:バージョン選択が重要

特定バージョンのダウンロード

ollama pull でモデルをダウンロードします—このコマンドは誰でも知っているでしょう。しかし、見落としやすい詳細があります:バージョンタグ

# 最新版をダウンロード
ollama pull llama3.2:latest

# 特定のパラメータサイズをダウンロード
ollama pull llama3.1:70b

# 特定の量子化バージョンをダウンロード
ollama pull mistral:7b-q4_K_M

疑問に思うかもしれません:これらのタグの違いは何でしょうか?

実は簡単です:

  • latest:デフォルトタグ、最新安定版
  • 7b70b:パラメータサイズ、数字が大きいほどモデルが強力ですが、リソースも多く消費します
  • q4_K_Mq3_K_L:量子化レベル、数字が小さいほどファイルサイズが小さくなり、精度は少し低下します

一言で言えば:ハードウェアに合わせてバージョンを選択します。

ハードウェア要件早見表

盲目的にダウンロードしないでください。まずこの表を確認し、あなたの構成と照らし合わせてください:

モデルサイズパラメータ数ファイルサイズ最小 RAM推奨 RAMVRAM 必要量
小規模1-3B1-2GB4GB8GB2-4GB
中規模7-8B4-5GB8GB16GB6-8GB
大規模13-14B7-8GB16GB32GB10-12GB
超大規模70B40GB+32GB64GB+24GB+

私の経験:8GB RAM のマシンで 7B モデルを実行するのは辛うじて可能ですが、遅いです。16GB なら快適になります。70B モデルに関しては—正直に言って、家庭用マシンでは基本的に実行できません。デュアル RTX 4090 がない限り。

一括ダウンロードスクリプト

複数のモデルをダウンロードする場合、一つずつ入力するのは疲れます。スクリプトを書きましょう:

#!/bin/bash
# download_models.sh

MODELS=(
  "llama3.2:latest"
  "mistral:7b"
  "qwen2:7b"
  "deepseek-r1:7b"
)

for model in "${MODELS[@]}"; do
  echo "ダウンロード中: $model"
  ollama pull "$model"
  echo "---"
done

echo "全モデルのダウンロード完了!"

download_models.sh として保存し、実行します:

chmod +x download_models.sh
./download_models.sh

これで、必要なモデルを一度にすべてダウンロードできます。


モデル切り替え:GPU を idle 状態にしない

ローカルモデル一覧の確認

モデルをダウンロードした後、まず何を持っているか確認します:

ollama list

出力はこのようになります:

NAME                ID              SIZE    MODIFIED
llama3.2:latest     a80c4f17acd5    2.0GB   2 days ago
mistral:7b          f974a74358d6    4.1GB   5 days ago
qwen2:7b            d53d04290064    2.3GB   10 days ago

各フィールドの意味:

  • NAME:モデル名とタグ
  • ID:一意識別子(モデル削除時に必要になる可能性)
  • SIZE:ファイルサイズ、誰が容量を占有しているか一目瞭然
  • MODIFIED:最終更新日時、古いモデルかどうか判断できる

ここを見れば、どのモデルがよく使われているか、どれを削除できるかがわかります。

特定モデルの実行

モデルの切り替えは簡単、直接 ollama run を実行:

# 基本的な実行
ollama run llama3.2

# GPU 加速付き
ollama run llama3.2 --gpu

#詳細モード(読み込み時間を表示)
ollama run llama3.2 --verbose

一つの詳細:モデルがダウンロードされていない場合、ollama run は自動的に pull します。そのため、直接 run を実行してもよく、事前に pull する必要はありません。

しかし、一つの注意点があります:モデルは起動後 GPU/CPU を占有し続けます、手動で停止しない限り。そのため、切り替える前に、前のモデルを停止します。

実行中モデルの停止

まず、どのモデルが実行中か確認します:

ollama ps

出力は以下のようになります:

NAME        ID              SIZE    PROCESSOR   UNTIL
llama3.2    a80c4f17acd5    2.0GB   100% GPU    4 minutes from now

モデルが実行中の場合、停止します:

ollama stop llama3.2

これで GPU 空間が解放され、次のモデルに切り替えできます。

正直に言って、以前はよく stop を忘れて、マシンが遅くなり続けました。習慣をつけましょう:切り替え前に ps を実行し、その後 stop


モデル削除:ディスク容量を解放する鍵

単一モデルの削除

重要な部分に到達しました—モデルの削除です。

ollama rm llama3.2

出力:

deleted 'llama3.2'

これだけ簡単です。しかし、一つの注意点:削除前にモデル名を確認してください、誤削除を避けるために。まず ollama list で確認することを推奨します。

また、削除後ファイルは即座に消えません、クリーンアッププロセスがあります。容量がすぐに解放されない場合、数分待ってから再確認してください。

一括削除スクリプト(whitelist 付き)

モデルライブラリが乱雑で、クリーンアップしたいが、よく使ういくつかは削除したい場合—スクリプトを書きましょう:

#!/bin/bash
# cleanup_models.sh

# whitelist:これらのモデルは削除しない
KEEP=(
  "llama3.2:latest"
  "mistral:7b"
)

# 全モデルを取得
ALL_MODELS=$(ollama list | tail -n +2 | awk '{print $1}')

for model in $ALL_MODELS; do
  # whitelist に含まれるかチェック
  keep=false
  for keeper in "${KEEP[@]}"; do
    if [ "$model" == "$keeper" ]; then
      keep=true
      break
    fi
  done

  # whitelist にないなら削除
  if [ "$keep" = false ]; then
    echo "削除中: $model"
    ollama rm "$model"
  else
    echo "保持中: $model"
  fi
done

echo "クリーンアップ完了!"

このスクリプトのロジック:まず全モデルをリストし、その後一つずつチェックします。whitelist のものは保持、他は削除。

KEEP 配列をあなたのニーズに合わせて変更し、よく使うモデルを記入できます。

モデル保存パス管理

モデルを削除したが、容量がまだ足りない?パス設定に問題があるかもしれません。

デフォルトでは、モデルは以下の場所に保存されます:

  • Windows: C:\Users\<username>\.ollama\models
  • Linux/macOS: ~/.ollama/models

システムディスクの容量が不足している場合、他のディスクに移行できます。環境変数 OLLAMA_MODELS を設定します:

# Linux/macOS
export OLLAMA_MODELS=/path/to/your/models

# Windows(PowerShell)
$env:OLLAMA_MODELS="D:\ollama\models"

設定後、新しくダウンロードしたモデルは新しいパスに保存されます。古いモデルは元の場所にあり、手動で移動が必要です。

私の提案:最初にパスを設定してください、容量が爆発してから移行するのを避けるために。移行は複雑で、エラーが起きやすいです。


バージョン管理:混乱を避ける戦略

バージョン混乱の典型的シナリオ

このような状況に遭遇したかもしれません:

llama3.1:latest
llama3.1:8b
llama3.2:latest
llama3.2:1b
llama3.2:3b

多数のバージョンが一緒に積み重ねられ、どれがよく使われているか、どれがテスト用か、どれを削除するべきかわかりません。

混乱を避ける三つの提案

  1. タグで用途を区別

    • latest:日常使用のメインバージョン
    • testdev:テスト用バージョン
    • 多すぎるパラメータサイズバージョンをダウンロードしない、適切な一つを選択
  2. 定期的なクリーンアップ

    • 一週間に一度 ollama list を実行、余分なものがあるか確認
    • 前述のクリーンアップスクリプトを使用、モデルライブラリを簡潔に保つ
  3. 命名を意味を持たせる

    • カスタムモデルの場合、明確な命名を使用
    • myproject-llama3.2 のように、mymodel1mymodel2 という名前は避ける

モデル更新(インクリメンタルダウンロード)

モデルが更新されたら、新バージョンを pull したい場合どうしますか?

再度 pull を実行:

ollama pull llama3.2:latest

良いニュース:Ollama は差分部分のみをダウンロードします、全体のファイルを再 pull しません。そのため更新は高速で、帯域幅を心配する必要はありません。

カスタムモデルバリエーション

モデルパラメータを調整したい場合(例えば temperature を変更、システムプロンプトを追加)、Modelfile を使用できます:

# Modelfile を作成
FROM llama3.2
PARAMETER temperature 0.7
SYSTEM """あなたは専門的な技術アシスタントです、簡潔な言葉で質問に答えてください。"""

# カスタムモデルを作成
ollama create my-tech-assistant -f Modelfile

# 実行
ollama run my-tech-assistant

これでカスタマイズ版が作成されます。今後使用しない場合、同様に ollama rm で削除できます。


##よくある問題と解決策

ダウンロードが 99% で停止

私もこの失敗を経験しました。モデルダウンロードが最後の 1% で突然停止します。

原因は通常ネットワーク中断です。解決方法:

# Ctrl+C でダウンロードをキャンセル
# その後再度 pull
ollama pull llama3.2

良いニュース:進捗は保存され、最初からダウンロードする必要はありません。通常、第二回で成功します。

削除後に容量が解放されない

モデルを削除したが、df -h を見ると容量がまだ満杯です。

可能性のある原因:

  1. クリーンアッププロセスがまだ終わっていない、数分待つ
  2. 残留ファイルが存在、手動でパスをチェック

手動チェック:

# モデルディレクトリのサイズを表示
du -sh ~/.ollama/models

# まだ大きい場合、中に入ってチェック
ls -lh ~/.ollama/models/blobs/

残留ファイルを見つけ、手動で削除します。

モデル切り替え失敗

ollama run がエラーを報告、可能性:

  1. リソース不足:RAM または VRAM が足りない
  2. 設定エラー:Modelfile に問題がある

解決方法:

  • まず ollama ps で他のモデルがリソースを占有していないか確認
  • --verbose で詳細なエラー情報を表示
  • カスタムモデルの場合、Modelfile の構文をチェック

最後に

これまで話しましたが、実際核心は三つのアクションだけ:ダウンロード、切り替え、削除。これらのコマンドをマスターし、少し計画を立てれば(盲目的にバージョンをダウンロードしない)、ローカル LLM ライブラリは簡潔になります。

ところで、OpenClaw ユーザーの場合、モデル管理はさらに重要です—OpenClaw は Ollama に依存し、モデルバージョンはアプリケーション体験に直接影響します。定期的にモデルライブラリをチェックし、使用しないものを削除し、簡潔に保つことを推奨します。

質問がある場合、いつでも早見表をチェックし、または該当する章に戻ってください。この記事がいくつかの失敗を避ける助けになることを願っています。


FAQ

現在ダウンロードされている全モデルを表示する方法は?
ollama list コマンドを使用すると、ローカルモデルの名前、ID、サイズ、更新日時がリストされます。特定のモデルの詳細情報を見たい場合、ollama show モデル名 を使用します。
モデル削除後にディスク容量がすぐに増加しない場合どうしますか?
削除後にはクリーンアッププロセスがあります、数分待ってから再確認してください。容量がまだ解放されない場合:

• du -sh ~/.ollama/models でディレクトリサイズをチェック
• blobs ディレクトリに入って残留ファイルを探す
• 残留モデルファイルを手動で削除
多すぎるバージョンをダウンロードして混乱を避ける方法は?
latest タグのみを日常のメインバージョンとして使用し、テストバージョンは test または dev タグで区別します。多すぎる異なるパラメータサイズのバージョンをダウンロードしない、ハードウェアに合わせて適切な一つを選択します。定期的に ollama list でチェックし、使用しない古いバージョンをクリーンアップします。
モデルダウンロードが 99% で停止した場合どう解決しますか?
通常ネットワーク中断が原因です。Ctrl+C でダウンロードをキャンセルし、その後 ollama pull コマンドを再実行します。進捗は保存され、最初からダウンロードする必要はありません、通常第二回で成功します。
70B モデルは家庭用コンピュータで実行できますか?
基本的に実行できません。70B モデルは 32GB+ RAM と少なくとも 24GB VRAM が必要で、一般的な家庭用コンピュータ(単一 RTX 4090 含む)では処理できません。7B または 14B モデルの使用を推奨します、またはクラウドサーバーをレンタルして大規模モデルを実行します。
全ローカルモデルを一括更新する方法は?
簡単なスクリプトを書きます:

ollama list | tail -n +2 | awk '{print $1}' | while read model; do
ollama pull "$model"
done

Ollama は差分部分のみをダウンロードし、更新は高速です。定期的にこのスクリプトを実行し、モデルライブラリを最新に保ちます。

5 min read · 公開日: 2026年4月2日 · 更新日: 2026年4月5日

コメント

GitHubアカウントでログインしてコメントできます

関連記事