如何使用 OpenClaw 在本地运行 DeepSeek R1
了解如何使用 OpenClaw 和 Ollama 在您的计算机上本地运行强大的 DeepSeek R1 模型。隐私、速度和零成本。
Quick Answer
您可以通过安装 Ollama、拉动“deepseek-r1”模型并配置 OpenClaw 以使用 Ollama 提供程序,在 OpenClaw 本地运行 DeepSeek R1。这为您提供了一个强大的私有 AI 代理,无需 API 成本。
DeepSeek R1 席卷了人工智能世界。其性能可与 GPT-4o 和 Claude 3.5 Sonnet 等顶级专有模型相媲美,但它是开放权重,可以在您自己的硬件上运行。
当您将 DeepSeek R1 与 OpenClaw 结合起来时,您将获得个人人工智能的圣杯:高度智能、完全自主的代理,完全在您的机器上运行,API 成本为零,并且完全隐私。
设置方法如下。
先决条件
- 硬件:配备 Apple Silicon (M1/M2/M3) 的 Mac 或配备 NVIDIA GPU 的 PC(7B/8B 型号建议使用 8GB+ VRAM)。
- 软件:已安装 OpenClaw(指南)。
步骤 1:安装 Ollama
Ollama 是运行本地法学硕士的最简单方法。如果您还没有:
- 从 ollama.com 下载 Ollama。
- 安装并运行它。
步骤 2:拉取 DeepSeek R1
打开终端并拉取 DeepSeek 模型。 “distill”版本非常适合大多数消费类硬件:
# For 8GB RAM/VRAM (Fast, good reasoning)
ollama pull deepseek-r1:7b
# For 16GB+ RAM/VRAM (Better reasoning)
ollama pull deepseek-r1:14b
# For 32GB+ RAM/VRAM (Excellent reasoning)
ollama pull deepseek-r1:32b
步骤 3:配置 OpenClaw
运行 OpenClaw 配置向导:
openclaw config
选择 Ollama 作为您的提供商,然后输入您刚刚提取的模型名称(例如 deepseek-r1:7b)。
或者,直接编辑您的配置文件 (~/.openclaw/config.json):
{
"llm": {
"provider": "ollama",
"model": "deepseek-r1:7b",
"baseUrl": "http://localhost:11434"
}
}
为什么选择 DeepSeek + OpenClaw?
1. 成本
与 DeepSeek 一起运行 OpenClaw 是免费。您无需按代币付费。您可以让您的代理 24/7 全天候运行来监控您的电子邮件或 Discord,而不必担心意外账单。
2. 隐私
通过 Ollama 运行的 DeepSeek R1 绝不会将您的数据发送到云端。 OpenClaw 在本地处理所有内容。您的日历、电子邮件和文件保留在磁盘上。
3.“推理”能力
DeepSeek R1 是一个“推理”模型(类似于 OpenAI o1)。它在回答之前会“思考”,这使得它特别擅长执行复杂的任务,例如:
- 代码审核:要求 OpenClaw 审核本地 git 存储库。
- 数据提取:让它解析混乱的 PDF 或网站。
- 规划:要求它根据您的日历限制规划旅行行程。
性能提示
- 上下文窗口:DeepSeek 支持大型上下文。 OpenClaw 自动管理上下文,但较大的窗口需要更多的 RAM。
- 系统提示:OpenClaw 的默认系统提示运行良好,但对于 DeepSeek,您可能希望通过在自定义指令中添加“让我们一步一步思考”来鼓励“思维链”。
结论
OpenClaw 的工具(浏览器、文件系统、应用程序)和DeepSeek 的智能的组合非常强大。您有一名免费的私人员工在您的机器上不知疲倦地工作。
准备好尝试了吗?
npm i -g openclaw
openclaw onboard > Related Articles
如何使用 OpenClaw 在本地运行 DeepSeek R1
了解如何使用 OpenClaw 和 Ollama 在您的计算机上本地运行强大的 DeepSeek R1 模型。隐私、速度和零成本。
How to Run DeepSeek R1 Locally with OpenClaw
Learn how to run the powerful DeepSeek R1 model locally on your machine using OpenClaw and Ollama. Privacy, speed, and zero cost.
Cómo ejecutar DeepSeek R1 localmente con OpenClaw
Aprenda a ejecutar el potente modelo DeepSeek R1 localmente en su máquina usando OpenClaw y Ollama. Privacidad, rapidez y coste cero.
Need help?
Join the OpenClaw community on Discord for support, tips, and shared skills.
Join Discord →