チュートリアル クロード モデル

OpenClaw でのクロード モデルの使用: 完全なセットアップ ガイド

OpenClaw が Anthropic Claude をバックエンドとしてどのように使用するかを学びましょう。 Claude API キーを構成し、Claude Max サブスクリプションを最適化し、GPT/Gemini/ローカル モデルの代替案を検討します。

Updated: 2026年2月1日 10 分で読めます

Quick Answer

OpenClaw は、デフォルトのバックエンド AI モデルとして Anthropic Claude を使用します。環境変数または構成ファイルで Claude API キーを構成します。 OpenClaw は、GPT、Gemini、プライバシー重視のセットアップ用の Ollama などのローカル モデルもサポートしています。

はじめに

OpenClaw はモデルに依存せず、さまざまな AI モデルで動作しますが、Anthropic Claude がデフォルトで最も一般的な選択肢です。 Claude は、インテリジェンス、安全性、長いコンテキスト ウィンドウの組み合わせにより、パーソナル AI アシスタントに最適です。このガイドでは、OpenClaw で Claude を使用する場合に知っておくべきすべてのことと、さまざまなユースケースに応じた代替手段について説明します。

OpenClaw を初めてセットアップする場合でも、Claude の使用を最適化する場合でも、このガイドは AI アシスタントを最大限に活用するのに役立ちます。

なぜクロードが OpenClaw を選ぶのか?

Claude は、次の理由からパーソナル AI アシスタントのバックエンドとして優れています。

長いコンテキスト ウィンドウ

Claude 3.5 Sonnet および Claude 3.7 Sonnet は、最大 200K のコンテキスト トークンをサポートします。つまり、OpenClaw では次のことが可能になります。

  • 広範な会話履歴を記憶
  • 長い文書や電子メールを処理する
  • 複数のセッションにわたってコンテキストを維持する
  • 詳細なユーザー設定の参照

安全性と信頼性

クロードは安全性を念頭に置いて設計されており、以下の用途に適しています。

  • 個人データの取り扱いについて
  • 機密性の高い通信の管理
  • 重要なタスクの自動化
  • 個人情報の処理

自然言語理解

クロードの強力な言語理解により、OpenClaw は次のことを可能にします。

  • 複雑なリクエストを正確に解釈する
  • 曖昧な指示に対処する
  • 文脈とニュアンスを理解する
  • 自然で役立つ応答を生成します

関数呼び出し

Claude の関数呼び出し機能を使用すると、OpenClaw で次のことが可能になります。

  • スキルとツールを実行する
  • ブラウザの自動化を制御する
  • 外部 API との統合
  • 複雑な複数ステップのタスクを実行する

クロード API キーのセットアップ

ステップ 1: Anthropic API キーを取得する

  1. console.anthropic.com にアクセスします。
  2. アカウントにサインアップまたはログインします
  3. 「API キー」セクションに移動します。
  4. 新しい API キーを作成する
  5. キーをコピーします (二度と表示されなくなります)。

ステップ 2: OpenClaw を構成する

API キーを環境変数として設定します。

macOS/Linux:

export ANTHROPIC_API_KEY="sk-ant-api03-..."

Windows (PowerShell):

$env:ANTHROPIC_API_KEY="sk-ant-api03-..."

または .env ファイル内:

ANTHROPIC_API_KEY=sk-ant-api03-...

ステップ 3: 構成の確認

OpenClaw を起動し、ログを確認します。

npm start

以下が表示されるはずです:

✓ Anthropic API key configured
✓ Using Claude 3.5 Sonnet

クロード モデルのオプション

OpenClaw は複数のクロード モデルをサポートしています。どちらを使用するかを設定します。

クロード 3.5 ソネット (推奨)

速度、コスト、機能の最適なバランス:

ANTHROPIC_MODEL=claude-3-5-sonnet-20241022

こんな方に最適:

  • 汎用的な支援
  • メール管理
  • タスクの自動化
  • ほとんどの日常業務

クロード 3.7 ソネット (最新)

機能が向上した最新モデル:

ANTHROPIC_MODEL=claude-3-7-sonnet-20250219

こんな方に最適:

  • 複雑な推論タスク
  • 長い文書の分析
  • 高度な問題解決
  • 最新の機能が必要な場合

クロード作品集 3

最も機能的ですが、速度が遅く、高価です:

ANTHROPIC_MODEL=claude-3-opus-20240229

こんな方に最適:

  • 複雑な分析
  • 重要なビジネス上の決定
  • 精度が重要な場合
  • 研究と執筆

クロード 3 俳句

最速かつ最もコスト効率が高い:

ANTHROPIC_MODEL=claude-3-haiku-20240307

こんな方に最適:

  • 簡単なクエリ
  • 大量のタスク
  • コスト重視のアプリケーション
  • 素早い対応

Claude Max 購読のヒント

Claude Max サブスクリプション (Claude Pro) をお持ちの場合は、使用量を最適化できます。

レート制限について理解する

クロード・マックスは以下を提供します:

  • より高いレート制限
  • 優先アクセス
  • 1分あたりのリクエスト数が増加

コストの最適化

  1. 簡単なタスクに Haiku を使用する

    # Simple queries use Haiku
    ANTHROPIC_MODEL_SIMPLE=claude-3-haiku-20240307
    
    # Complex tasks use Sonnet
    ANTHROPIC_MODEL_COMPLEX=claude-3-5-sonnet-20241022
  2. バッチリクエスト

    • 同様のリクエストをグループ化します
    • 1 回の通話で複数のメールを処理する
    • 関連するタスクを結合する3. 応答のキャッシュ
    • OpenClaw は一般的な応答をキャッシュできます
    • 繰り返されるクエリによる API 呼び出しを削減します。
    • 頻繁な操作でコストを節約

使用状況の監視

API の使用状況を追跡します。

# Check Anthropic dashboard
# Monitor spending and rate limits
# Adjust model selection based on usage

代替モデル: GPT および Gemini

OpenClaw はクロードに限定されません。他のモデルも使用できます。

OpenAI GPT モデル

GPT をバックエンドとして構成します。

OPENAI_API_KEY=sk-...
OPENAI_MODEL=gpt-4-turbo-preview

サポートされているモデル:

  • gpt-4-turbo-preview — 最新の GPT-4
  • gpt-4 — 標準 GPT-4
  • gpt-3.5-turbo — より速く、より安価なオプション

GPT を使用する場合:

  • OpenAI のエコシステムを好みます
  • 特定の GPT 機能が必要
  • すでに OpenAI クレジットを持っている ・機種を比較したい

Google ジェミニ

Gemini モデルを使用します。

GOOGLE_API_KEY=...
GOOGLE_MODEL=gemini-pro

サポートされているモデル:

  • gemini-pro — 標準ジェミニ
  • gemini-pro-vision — ビジョン機能付き

Gemini を使用する場合:

  • Google のモデル機能が欲しい
  • 視覚/イメージの理解が必要
  • Google の API 構造を好む

オラマの地元モデル

プライバシーを最大限に高めるために、モデルをローカルで実行します。

Ollama のセットアップ

  1. Ollama をインストールします。

    # macOS
    brew install ollama
    
    # Linux
    curl -fsSL https://ollama.ai/install.sh | sh
  2. モデルをプルします。

    ollama pull llama2
    ollama pull mistral
    ollama pull codellama
  3. OpenClaw を構成します。

    OLLAMA_BASE_URL=http://localhost:11434
    OLLAMA_MODEL=llama2

ローカルモデルの利点

  • 完全なプライバシー — データがマシンから流出することはありません
  • API コストなし - 初期セットアップ後は無料
  • オフライン対応 — インターネットなしで動作します
  • フル コントロール — モデルの動作をカスタマイズします

トレードオフ

  • ハードウェア要件 — 強力な GPU が必要
  • 応答が遅い — ローカル推論が遅くなります
  • 制限された機能 — クロード/GPT よりも機能が低いローカル モデル
  • セットアップの複雑さ — より多くの構成が必要です

モデル比較ガイド

電子メール管理用

ベスト: クロード 3.5 ソネット

  • メールの文脈を理解するのが得意
  • 分類と優先順位付けが得意
  • 自然なレスポンスの生成

コードタスクの場合

ベスト: クロード 3.7 ソネットまたは GPT-4

  • 強力なコード理解
  • デバッグが得意
  • 効果的なコード生成

単純なクエリの場合

ベスト: Claude 3 Haiku または GPT-3.5 Turbo

  • 素早い応答
  • 低コスト
  • 単純な作業には十分です

プライバシーが重要なタスクの場合

ベスト: 地元のモデル (オラマ)

  • データ送信なし
  • 完全な制御
  • オフライン対応

高度な構成

モデルの切り替え

さまざまなタスクにさまざまなモデルを使用するように OpenClaw を構成します。

// config.js
module.exports = {
  models: {
    default: 'claude-3-5-sonnet-20241022',
    email: 'claude-3-5-sonnet-20241022',
    coding: 'claude-3-7-sonnet-20250219',
    simple: 'claude-3-haiku-20240307'
  }
};

フォールバック モデル

プライマリに障害が発生した場合のフォールバック モデルをセットアップします。

PRIMARY_MODEL=claude-3-5-sonnet-20241022
FALLBACK_MODEL=claude-3-haiku-20240307

カスタムモデルパラメータ

モデルの動作を微調整します。

# Temperature (creativity)
ANTHROPIC_TEMPERATURE=0.7

# Max tokens (response length)
ANTHROPIC_MAX_TOKENS=4096

# Top-p (nucleus sampling)
ANTHROPIC_TOP_P=0.9

トラブルシューティング

API キーの問題

エラー: 「無効な API キー」

  • キーが正しいことを確認してください
  • 余分なスペースがないか確認してください
  • キーが sk-ant- で始まることを確認してください

エラー: 「レート制限を超えました」

  • クロード・マックスにアップグレード
  • リクエストの頻度を減らす
  • 簡単なタスクに Haiku を使用する

モデルが見つかりません

エラー: 「モデルが見つかりません」

  • モデル名のスペルを確認してください
  • モデルがお住まいの地域で利用可能であることを確認してください
  • 正しいモデル識別子を使用してください

接続の問題

エラー: 「接続タイムアウト」

  • インターネット接続を確認してください
  • Anthropic API ステータスを確認する
  • ファイアウォール設定を確認する

ベストプラクティス

モデルの選択

  1. Claude 3.5 Sonnet から開始します (デフォルト)
  2. 大量の単純なタスクには Haiku を使用する
  3. 複雑な推論のために 3.7 Sonnet にアップグレードする
  4. 重要なタスクには Opus を検討する

コスト管理

  1. API の使用状況を定期的に監視する
  2. 各タスクに適切なモデルを使用する
  3. 共通の応答をキャッシュする
  4. 同様のリクエストをバッチ処理する

パフォーマンスの最適化

  1. 長い応答にはストリーミングを使用する
  2. 適切な最大トークンを設定する
  3. 効率を高めるためにプロンプトを最適化する
  4. 応答時間を監視する## 結論

Claude は、機能、安全性、コストの適切なバランスを提供し、OpenClaw にとって優れた選択肢です。日常業務に Claude 3.5 Sonnet を使用している場合でも、プライバシーを最大限に高めるためにローカル モデルを探索している場合でも、OpenClaw を使用すると、ニーズに合わせて適切な AI バックエンドを柔軟に選択できます。

Claude 3.5 Sonnet から始めて、使用パターンに基づいて調整してください。コストを監視し、さまざまなモデルを試して、時間をかけてセットアップを最適化します。

その他の構成オプションについては、インストール ガイド および スキル ドキュメント をご覧ください。ご質問がある場合は、FAQ にアクセスするか、他の チュートリアル をご覧ください。

Need help?

Join the OpenClaw community on Discord for support, tips, and shared skills.

Join Discord →