ガイド ローカルAI オラマ

OpenClaw で Ollama を使用するための究極のガイド

Ollama と OpenClaw を使用したローカル LLM の実行について知っておくべきすべてのこと。セットアップ、モデルの選択、およびパフォーマンスのチューニング。

Updated: 2026年2月18日 10 分で読めます

Quick Answer

Ollama は、OpenClaw がローカル モデルを実行するためのバックエンドとして機能します。 OpenClaw を Ollama のローカル サーバー ポート (11434) に接続すると、Llama 3、Mistral、Gemma などのモデルを使用して、インターネット アクセスなしで AI アシスタントを強化できます。

クラウド AI は優れていますが、ローカル AI は自由です。サブスクリプションからの自由、プライバシーへの懸念からの自由、ダウンタイムからの自由。

OpenClaw はモデルに依存しないように構築されていますが、その親友は間違いなく Ollama です。これらを組み合わせることで、コンピューターが自律型 AI の強力な家に変わります。

オラマとは何ですか?

Ollama は、大規模言語モデル (LLM) をローカルで実行できるようにするツールです。モデルをメモリにロードしてテキストを生成するという、複雑な「推論」部分を処理します。 OpenClaw が通信する単純な API を公開します。

統合のセットアップ

1.「サーバー」

Ollama はバックグラウンドで実行する必要があります。 macOS および Windows では、デスクトップ アプリがこれを自動的に処理します。 Linux の場合:

ollama serve

2.「クライアント」(OpenClaw)

OpenClaw は Ollama にプロンプトを送信します。 Ollama がどこでリッスンしているかを伝えるだけです (通常は http://localhost:11434)。

適切なモデルの選択

すべてのローカル モデルが同じように作成されているわけではありません。 2026 年の OpenClaw エージェントのトップピックは次のとおりです。

オールラウンダーズ

  • Llama 3.2 (8B): 驚異的なスピードとそのサイズの合理性。ほとんどのMacBookに最適です。
  • Mistral Large 2: 24GB 以上の RAM を搭載している場合、これは GPT-4 に匹敵します。

スペシャライズド

  • CodeLlama / DeepSeek-Coder: コーディング タスクに主に OpenClaw を使用する場合は、これらを使用します。
  • ファイ-4: 小さいですが強力です。古いラップトップやバックグラウンド タスクに最適です。

高度な構成

コンテキストウィンドウ

デフォルトでは、Ollama はコンテキストを 4k または 8k トークンに制限する場合があります。 OpenClaw はさらに多くのことを処理できます。 Ollama の特定のモデル ファイル (Modelfile) でこれを増やすことができます。

PARAMETER num_ctx 32768

次に、モデルを再構築します: ollama create my-large-model -f Modelfile

温度

アクションを実行するエージェント (OpenClaw など) の場合、信頼性を確保するには通常、温度を低くする方が良いでしょう。 OpenClaw はツール使用のためにデフォルトで 0.0 に設定されていますが、config.json でこれを微調整できます。

トラブルシューティング

  • 「接続が拒否されました」: Ollama が実際に実行中であることを確認してください。メニュー バー (Mac) またはタスク トレイ (Windows) を確認してください。
  • 「モデルが見つかりません」: OpenClaw で使用する 前に ollama pull [modelname] を実行していることを確認してください。
  • 速度: モデルが VRAM (ollama ps) に適合するかどうかを確認してください。システム RAM に溢れている場合は、速度が遅くなります。より小さい「量子化」(q4_k_m など) を試してください。

地域の未来

Ollama で OpenClaw を実行すると、まるで魔法のように感じられます。ネットワーク遅延はゼロです。ファイルをチャットにドラッグすると、OpenClaw が即座にそれを読み取ります。

OpenClaw のインストール から今すぐ始めましょう。

Need help?

Join the OpenClaw community on Discord for support, tips, and shared skills.

Join Discord →