教程 本地人工智能 DeepSeek

如何使用 OpenClaw 在本地运行 DeepSeek R1

了解如何使用 OpenClaw 和 Ollama 在您的计算机上本地运行强大的 DeepSeek R1 模型。隐私、速度和零成本。

Updated: 2026年2月20日 8 分钟阅读

Quick Answer

您可以通过安装 Ollama、拉动“deepseek-r1”模型并配置 OpenClaw 以使用 Ollama 提供程序,在 OpenClaw 本地运行 DeepSeek R1。这为您提供了一个强大的私有 AI 代理,无需 API 成本。

DeepSeek R1 席卷了人工智能世界。其性能可与 GPT-4o 和 Claude 3.5 Sonnet 等顶级专有模型相媲美,但它是开放权重,可以在您自己的硬件上运行。

当您将 DeepSeek R1OpenClaw 结合起来时,您将获得个人人工智能的圣杯:高度智能、完全自主的代理,完全在您的机器上运行,API 成本为零,并且完全隐私。

设置方法如下。

先决条件

  • 硬件:配备 Apple Silicon (M1/M2/M3) 的 Mac 或配备 NVIDIA GPU 的 PC(7B/8B 型号建议使用 8GB+ VRAM)。
  • 软件:已安装 OpenClaw(指南)。

步骤 1:安装 Ollama

Ollama 是运行本地法学硕士的最简单方法。如果您还没有:

  1. ollama.com 下载 Ollama。
  2. 安装并运行它。

步骤 2:拉取 DeepSeek R1

打开终端并拉取 DeepSeek 模型。 “distill”版本非常适合大多数消费类硬件:

# For 8GB RAM/VRAM (Fast, good reasoning)
ollama pull deepseek-r1:7b

# For 16GB+ RAM/VRAM (Better reasoning)
ollama pull deepseek-r1:14b

# For 32GB+ RAM/VRAM (Excellent reasoning)
ollama pull deepseek-r1:32b

步骤 3:配置 OpenClaw

运行 OpenClaw 配置向导:

openclaw config

选择 Ollama 作为您的提供商,然后输入您刚刚提取的模型名称(例如 deepseek-r1:7b)。

或者,直接编辑您的配置文件 (~/.openclaw/config.json):

{
  "llm": {
    "provider": "ollama",
    "model": "deepseek-r1:7b",
    "baseUrl": "http://localhost:11434"
  }
}

为什么选择 DeepSeek + OpenClaw?

1. 成本

与 DeepSeek 一起运行 OpenClaw 是免费。您无需按代币付费。您可以让您的代理 24/7 全天候运行来监控您的电子邮件或 Discord,而不必担心意外账单。

2. 隐私

通过 Ollama 运行的 DeepSeek R1 绝不会将您的数据发送到云端。 OpenClaw 在本地处理所有内容。您的日历、电子邮件和文件保留在磁盘上。

3.“推理”能力

DeepSeek R1 是一个“推理”模型(类似于 OpenAI o1)。它在回答之前会“思考”,这使得它特别擅长执行复杂的任务,例如:

  • 代码审核:要求 OpenClaw 审核本地 git 存储库。
  • 数据提取:让它解析混乱的 PDF 或网站。
  • 规划:要求它根据您的日历限制规划旅行行程。

性能提示

  • 上下文窗口:DeepSeek 支持大型上下文。 OpenClaw 自动管理上下文,但较大的窗口需要更多的 RAM。
  • 系统提示:OpenClaw 的默认系统提示运行良好,但对于 DeepSeek,您可能希望通过在自定义指令中添加“让我们一步一步思考”来鼓励“思维链”。

结论

OpenClaw 的工具(浏览器、文件系统、应用程序)和DeepSeek 的智能的组合非常强大。您有一名免费的私人员工在您的机器上不知疲倦地工作。

准备好尝试了吗?

npm i -g openclaw
openclaw onboard

Need help?

Join the OpenClaw community on Discord for support, tips, and shared skills.

Join Discord →