OpenClaw を使用して DeepSeek R1 をローカルで実行する方法
OpenClaw と Ollama を使用して、強力な DeepSeek R1 モデルをマシン上でローカルに実行する方法を学びます。プライバシー、スピード、そしてコストゼロ。
Quick Answer
Ollama をインストールし、「deepseek-r1」モデルをプルし、Ollama プロバイダーを使用するように OpenClaw を構成することで、OpenClaw を使用して DeepSeek R1 をローカルで実行できます。これにより、API コストなしで強力なプライベート AI エージェントが得られます。
DeepSeek R1 は AI の世界に旋風を巻き起こしました。そのパフォーマンスは GPT-4o や Claude 3.5 Sonnet などのトップクラスの独自モデルに匹敵しますが、オープンウェイトであり、独自のハードウェアで実行できます。
DeepSeek R1 と OpenClaw を組み合わせると、パーソナル AI の聖杯が得られます。これは、API コストがゼロで完全なプライバシーを備え、マシン上で完全に実行される高度にインテリジェントで完全に自律的なエージェントです。
設定方法は次のとおりです。
前提条件
- ハードウェア: Apple Silicon (M1/M2/M3) を搭載した Mac、または NVIDIA GPU (7B/8B モデルには 8GB 以上の VRAM を推奨) を搭載した PC。
- ソフトウェア: OpenClaw がインストールされています (ガイド)。
ステップ 1: Ollama をインストールする
Ollama は、ローカル LLM を実行する最も簡単な方法です。まだ行っていない場合:
- ollama.com から Ollama をダウンロードします。
- インストールして実行します。
ステップ 2: DeepSeek R1 をプルする
ターミナルを開き、DeepSeek モデルをプルします。 「蒸留」バージョンは、ほとんどのコンシューマ ハードウェアに最適です。
# For 8GB RAM/VRAM (Fast, good reasoning)
ollama pull deepseek-r1:7b
# For 16GB+ RAM/VRAM (Better reasoning)
ollama pull deepseek-r1:14b
# For 32GB+ RAM/VRAM (Excellent reasoning)
ollama pull deepseek-r1:32b
ステップ 3: OpenClaw を構成する
OpenClaw 構成ウィザードを実行します。
openclaw config
プロバイダーとして Ollama を選択し、取得したモデル名 (例: deepseek-r1:7b) を入力します。
または、構成ファイルを直接編集します (~/.openclaw/config.json)。
{
"llm": {
"provider": "ollama",
"model": "deepseek-r1:7b",
"baseUrl": "http://localhost:11434"
}
}
DeepSeek + OpenClaw を使用する理由
1. コスト
DeepSeek で OpenClaw を実行するのは 無料 です。トークンごとに料金を支払う必要はありません。突然の請求を心配することなく、エージェントを 24 時間 365 日稼働させたままにしてメールや Discord を監視できます。
2. プライバシー
Ollama 経由で実行される DeepSeek R1 がデータをクラウドに送信することはありません。 OpenClaw はすべてをローカルで処理します。カレンダー、メール、ファイルはディスク上に残ります。
3.「推論」能力
DeepSeek R1 は「推論」モデル (OpenAI o1 と同様) です。応答する前に「考える」ため、次のような複雑なタスクを非常に得意とします。
- コード監査: OpenClaw にローカル git リポジトリをレビューするよう依頼します。
- データ抽出: 乱雑な PDF や Web サイトを解析します。
- 計画: カレンダーの制約に基づいて旅行の旅程を計画するよう依頼します。
パフォーマンスのヒント
- コンテキスト ウィンドウ: DeepSeek は大規模なコンテキストをサポートします。 OpenClaw はコンテキストを自動的に管理しますが、ウィンドウが大きくなるとより多くの RAM が必要になります。
- システム プロンプト: OpenClaw のデフォルトのシステム プロンプトは適切に機能しますが、DeepSeek の場合は、カスタム手順に「ステップバイステップで考えてみましょう」を追加することで「思考の連鎖」を促進するとよいでしょう。
結論
OpenClaw のツール (ブラウザ、ファイル システム、アプリ) と DeepSeek のインテリジェンスの組み合わせは強力です。あなたには、あなたのマシンで精力的に働いてくれる無償の民間従業員がいます。
試す準備はできていますか?
npm i -g openclaw
openclaw onboard > Related Articles
OpenClaw を使用して DeepSeek R1 をローカルで実行する方法
OpenClaw と Ollama を使用して、強力な DeepSeek R1 モデルをマシン上でローカルに実行する方法を学びます。プライバシー、スピード、そしてコストゼロ。
Siriを卒業:OpenClawとWhisperでプライベート音声操作を設定する
コンピュータとの関係を変革しましょう。OpenClawでOpenAIのWhisperモデルをローカルで実行し、超高速でプライベートな音声操作を設定する方法を学びます。
プライバシーファーストのAIワークフロー:OpenClawを使ってローカルで機密データを処理する
OpenClawを使用して、機密文書、財務報告書、個人データを1バイトもクラウドに送信することなく、完全にローカルマシン上で処理する方法を学びます。
Need help?
Join the OpenClaw community on Discord for support, tips, and shared skills.
Join Discord →