指导 本地人工智能 奥拉玛

将 Ollama 与 OpenClaw 结合使用的终极指南

关于使用 Ollama 和 OpenClaw 运行本地法学硕士所需了解的一切。设置、模型选择和性能调整。

Updated: 2026年2月18日 10 分钟阅读

Quick Answer

Ollama 充当 OpenClaw 的后端来运行本地模型。通过将 OpenClaw 连接到 Ollama 的本地服务器端口 (11434),您可以使用 Llama 3、Mistral 和 Gemma 等模型为您的 AI 助手提供支持,而无需访问互联网。

云人工智能很棒,但本地人工智能是自由的。免于订阅、免于隐私问题以及免于停机。

OpenClaw 的构建与模型无关,但它最好的朋友无疑是 Ollama。它们共同将您的计算机变成一个自主的人工智能引擎。

奥拉玛是什么?

Ollama 是一个允许您在本地运行大型语言模型 (LLM) 的工具。它处理复杂的“推理”部分——将模型加载到内存中并生成文本。它公开了 OpenClaw 与之对话的简单 API。

设置集成

1.“服务器”

Ollama 需要在后台运行。在 macOS 和 Windows 上,桌面应用程序会自动处理此问题。在 Linux 上:

ollama serve

2.“客户端”(OpenClaw)

OpenClaw 向 Ollama 发送提示。您只需告诉它 Ollama 在哪里监听(通常是 http://localhost:11434)。

选择正确的模型

并非所有本地模型都是一样的。以下是 2026 年 OpenClaw 代理的首选:

全能选手

  • Llama 3.2 (8B):令人难以置信的速度和其尺寸的推理。适合大多数 MacBook。
  • Mistral Large 2:如果您有 24GB 以上 RAM,这可与 GPT-4 相媲美。

专业化

  • CodeLlama / DeepSeek-Coder:如果您主要使用 OpenClaw 进行编码任务,请使用这些。
  • Phi-4:微小但强大。非常适合旧笔记本电脑或后台任务。

高级配置

上下文窗口

默认情况下,Ollama 可能会将上下文限制为 4k 或 8k 令牌。 OpenClaw 可以处理更多的事情。您可以在 Ollama 中的特定模型文件(Modelfile)中增加此内容:

PARAMETER num_ctx 32768

然后重建模型:ollama create my-large-model -f Modelfile

温度

对于采取行动的代理(如 OpenClaw),较低的温度通常可以更好地确保可靠性。对于工具使用,OpenClaw 默认为 0.0,但您可以在 config.json 中对此进行调整。

故障排除

  • “连接被拒绝”:确保 Ollama 确实正在运行!检查菜单栏 (Mac) 或任务托盘 (Windows)。
  • “未找到模型”:确保您尝试在 OpenClaw 中使用它之前已运行 ollama pull [modelname]
  • 缓慢:检查您的模型是否适合 VRAM (ollama ps)。如果它溢出到系统 RAM,速度会很慢。尝试较小的“量化”(例如 q4_k_m)。

当地的未来

与 Ollama 一起运行 OpenClaw 感觉就像魔法一样。网络延迟为零。您可以将文件拖到聊天中,OpenClaw 会立即读取它。

立即开始安装 OpenClaw

Need help?

Join the OpenClaw community on Discord for support, tips, and shared skills.

Join Discord →