教程 克洛德 型号

将 Claude 模型与 OpenClaw 结合使用:完整设置指南

了解 OpenClaw 如何使用 Anthropic Claude 作为后端。配置 Claude API 密钥、优化 Claude Max 订阅并探索 GPT/Gemini/本地模型替代方案。

Updated: 2026年2月1日 10 分钟阅读

Quick Answer

OpenClaw 使用 Anthropic Claude 作为其默认后端 AI 模型。在环境变量或配置文件中配置您的 Claude API 密钥。 OpenClaw 还支持 GPT、Gemini 和 Ollama 等本地模型,以实现注重隐私的设置。

简介

OpenClaw 与模型无关——它可以与各种 AI 模型一起使用,但 Anthropic Claude 是默认且最受欢迎的选择。 Claude 集智能、安全性和长上下文窗口于一体,使其成为个人人工智能助理的理想选择。本指南涵盖了有关将 Claude 与 OpenClaw 结合使用所需了解的所有信息,以及不同用例的替代方案。

无论您是首次设置 OpenClaw 还是优化 Claude 使用,本指南都将帮助您充分利用 AI 助手。

为什么Claude选择 OpenClaw?

Claude 擅长作为个人人工智能助理的后端,因为:

长上下文窗口

Claude 3.5 Sonnet 和 Claude 3.7 Sonnet 支持多达 200K 上下文标记。这意味着 OpenClaw 可以:

  • 记住大量的对话历史
  • 处理长文档和电子邮件
  • 维护多个会话的上下文
  • 参考详细的用户偏好

安全可靠

Claude 的设计充分考虑了安全性,使其适用于:

  • 处理个人数据
  • 管理敏感通信
  • 自动化重要任务
  • 处理私人信息

自然语言理解

Claude 强大的语言理解能力使 OpenClaw 能够:

  • 准确解释复杂的请求
  • 处理不明确的指令
  • 了解上下文和细微差别
  • 生成自然、有用的反应

函数调用

Claude 的函数调用功能允许 OpenClaw :

  • 执行技能和工具
  • 控制浏览器自动化
  • 与外部 API 集成
  • 执行复杂的多步骤任务

设置 Claude API 密钥

第 1 步:获取您的 Anthropic API 密钥

  1. 访问console.anthropic.com
  2. 注册或登录您的帐户
  3. 导航至 API 密钥部分
  4. 创建新的API密钥
  5. 复制密钥(您将不会再看到它!)

步骤 2:配置 OpenClaw

将您的 API 密钥设置为环境变量:

macOS/Linux:

export ANTHROPIC_API_KEY="sk-ant-api03-..."

Windows(PowerShell):

$env:ANTHROPIC_API_KEY="sk-ant-api03-..."

或者在 .env 文件中:

ANTHROPIC_API_KEY=sk-ant-api03-...

步骤 3:验证配置

启动 OpenClaw 并检查日志:

npm start

你应该看到:

✓ Anthropic API key configured
✓ Using Claude 3.5 Sonnet

Claude模型选项

OpenClaw 支持多种 Claude 模型。配置使用哪一个:

Claude 3.5 十四行诗(推荐)

速度、成本和功能的最佳平衡:

ANTHROPIC_MODEL=claude-3-5-sonnet-20241022

最适合:

  • 通用援助
  • 电子邮件管理
  • 任务自动化
  • 大多数日常任务

Claude 3.7 十四行诗(最新)

具有改进功能的最新型号:

ANTHROPIC_MODEL=claude-3-7-sonnet-20250219

最适合:

  • 复杂的推理任务
  • 长文档分析
  • 高级问题解决
  • 当您需要最新功能时

Claude 3 作品

最有能力但更慢且更昂贵:

ANTHROPIC_MODEL=claude-3-opus-20240229

最适合:

  • 复杂的分析
  • 重要的商业决策
  • 当准确性至关重要时
  • 研究和写作

Claude 3 俳句

最快、最具成本效益:

ANTHROPIC_MODEL=claude-3-haiku-20240307

最适合:

  • 简单查询
  • 大批量任务
  • 成本敏感的应用
  • 快速反应

Claude·马克斯订阅提示

如果您有 Claude Max 订阅 (Claude Pro),您可以优化使用:

了解速率限制

Claude·马克斯提供:

  • 更高的速率限制
  • 优先访问
  • 每分钟更多请求

成本优化

  1. 使用俳句完成简单任务

    # Simple queries use Haiku
    ANTHROPIC_MODEL_SIMPLE=claude-3-haiku-20240307
    
    # Complex tasks use Sonnet
    ANTHROPIC_MODEL_COMPLEX=claude-3-5-sonnet-20241022
  2. 批量请求

    • 将类似的请求分组在一起
    • 在一次通话中处理多封电子邮件
    • 合并相关任务3. 缓存响应
    • OpenClaw可以缓存常见的响应
    • 减少重复查询的 API 调用
    • 节省频繁操作的成本

监控使用情况

跟踪您的 API 使用情况:

# Check Anthropic dashboard
# Monitor spending and rate limits
# Adjust model selection based on usage

替代模型:GPT 和 Gemini

OpenClaw 并不局限于Claude。您可以使用其他模型:

OpenAI GPT 模型

配置 GPT 作为您的后端:

OPENAI_API_KEY=sk-...
OPENAI_MODEL=gpt-4-turbo-preview

支持的型号:

  • gpt-4-turbo-preview — 最新的 GPT-4
  • gpt-4 — 标准 GPT-4
  • gpt-3.5-turbo — 更快、更便宜的选择

何时使用 GPT:

  • 您更喜欢 OpenAI 的生态系统
  • 需要特定的 GPT 功能
  • 已经拥有 OpenAI 积分
  • 想要比较型号

谷歌双子座

使用双子座模型:

GOOGLE_API_KEY=...
GOOGLE_MODEL=gemini-pro

支持的型号:

  • gemini-pro — 标准双子座
  • gemini-pro-vision — 具有视觉功能

何时使用双子座:

  • 想要Google的模型能力
  • 需要视觉/图像理解
  • 更喜欢Google的API结构

Ollama 的本地模特

为了最大程度地保护隐私,请在本地运行模型:

设置 Olama

  1. 安装Ollama:

    # macOS
    brew install ollama
    
    # Linux
    curl -fsSL https://ollama.ai/install.sh | sh
  2. 拉取模型:

    ollama pull llama2
    ollama pull mistral
    ollama pull codellama
  3. 配置OpenClaw:

    OLLAMA_BASE_URL=http://localhost:11434
    OLLAMA_MODEL=llama2

本地模型的好处

  • 完全隐私 — 任何数据都不会离开您的机器
  • 无 API 成本 — 初始设置后免费
  • 离线功能 — 无需互联网即可工作
  • 完全控制 — 自定义模型行为

权衡

  • 硬件要求 — 需要强大的 GPU
  • 响应速度较慢 — 本地推理速度较慢
  • 功能有限 - 本地模型的能力不如 Claude/GPT
  • 设置复杂性 — 需要更多配置

型号比较指南

用于电子邮件管理

最佳: Claude 3.5 十四行诗

  • 擅长理解电子邮件上下文
  • 善于分类和优先排序
  • 自然响应生成

对于代码任务

最佳: Claude 3.7 Sonnet 或 GPT-4

  • 强大的代码理解能力
  • 善于调试
  • 有效的代码生成

对于简单查询

最佳: Claude 3 Haiku 或 GPT-3.5 Turbo

  • 快速响应
  • 成本更低
  • 足以完成简单任务

对于隐私关键任务

最佳: 本地模特(Ollama)

  • 无数据传输
  • 完全控制
  • 离线能力

高级配置

模型切换

配置 OpenClaw 以针对不同的任务使用不同的模型:

// config.js
module.exports = {
  models: {
    default: 'claude-3-5-sonnet-20241022',
    email: 'claude-3-5-sonnet-20241022',
    coding: 'claude-3-7-sonnet-20250219',
    simple: 'claude-3-haiku-20240307'
  }
};

后备模型

如果主模型失败,设置后备模型:

PRIMARY_MODEL=claude-3-5-sonnet-20241022
FALLBACK_MODEL=claude-3-haiku-20240307

自定义模型参数

微调模型行为:

# Temperature (creativity)
ANTHROPIC_TEMPERATURE=0.7

# Max tokens (response length)
ANTHROPIC_MAX_TOKENS=4096

# Top-p (nucleus sampling)
ANTHROPIC_TOP_P=0.9

故障排除

API 密钥问题

错误:“API 密钥无效”

  • 验证密钥是否正确
  • 检查是否有多余的空间
  • 确保密钥以 sk-ant- 开头

错误:“超出速率限制”

  • 升级到Claude·麦克斯
  • 减少请求频率
  • 使用俳句完成简单任务

型号未找到

错误:“找不到模型”

  • 检查型号名称拼写
  • 验证型号在您所在地区可用
  • 使用正确的型号标识符

连接问题

错误:“连接超时”

  • 检查互联网连接
  • 验证 Anthropic API 状态
  • 检查防火墙设置

最佳实践

型号选择

  1. 从 Claude 3.5 Sonnet 开始(默认)
  2. 使用俳句来完成大量简单的任务
  3. 升级到3.7 Sonnet进行复杂推理
  4. 考虑使用 Opus 来执行关键任务

成本管理

  1. 定期监控API使用情况
  2. 为每项任务使用适当的模型
  3. 缓存常见响应
  4. 批量相似请求

性能优化

  1. 使用流式处理长响应
  2. 设置适当的最大令牌数
  3. 优化提示,提高效率
  4. 监控响应时间## 结论

Claude 是 OpenClaw 的绝佳选择,可在功能、安全性和成本之间实现适当的平衡。无论您是使用 Claude 3.5 Sonnet 执行日常任务,还是探索本地模型以实现最大程度的隐私,OpenClaw 都可以让您灵活地选择适合您需求的 AI 后端。

从 Claude 3.5 Sonnet 开始,然后根据您的使用模式进行调整。监控成本,尝试不同的模型,并随着时间的推移优化您的设置。

如需更多配置选项,请查看我们的安装指南技能文档。如果您有疑问,请访问我们的常见问题解答 或浏览其他教程

Need help?

Join the OpenClaw community on Discord for support, tips, and shared skills.

Join Discord →