Tutorial IA local DeepSeek

Como executar DeepSeek R1 localmente com OpenClaw

Aprenda como executar o poderoso modelo DeepSeek R1 localmente em sua máquina usando OpenClaw e Ollama. Privacidade, velocidade e custo zero.

Updated: 20 de fevereiro de 2026 8 minutos de leitura

Quick Answer

Você pode executar o DeepSeek R1 localmente com OpenClaw instalando o Ollama, puxando o modelo `deepseek-r1` e configurando o OpenClaw para usar o provedor Ollama. Isso oferece um agente de IA privado e poderoso, sem custos de API.

DeepSeek R1 conquistou o mundo da IA. Seu desempenho rivaliza com modelos proprietários de primeira linha, como GPT-4o e Claude 3.5 Sonnet, mas é leve e pode ser executado em seu próprio hardware.

Ao combinar o DeepSeek R1 com o OpenClaw, você obtém o Santo Graal da IA ​​pessoal: um agente altamente inteligente e totalmente autônomo que é executado inteiramente em sua máquina, sem custos de API e com total privacidade.

Veja como configurá-lo.

Pré-requisitos

  • Hardware: um Mac com Apple Silicon (M1/M2/M3) ou um PC com GPU NVIDIA (8GB+ VRAM recomendado para modelos 7B/8B).
  • Software: OpenClaw instalado (guia).

Etapa 1: Instale o Ollama

Ollama é a maneira mais fácil de executar LLMs locais. Se você ainda não o fez:

  1. Baixe o Ollama em ollama.com.
  2. Instale e execute-o.

Etapa 2: Extrair DeepSeek R1

Abra seu terminal e extraia o modelo DeepSeek. As versões “destiladas” são ótimas para a maioria dos hardwares de consumo:

# For 8GB RAM/VRAM (Fast, good reasoning)
ollama pull deepseek-r1:7b

# For 16GB+ RAM/VRAM (Better reasoning)
ollama pull deepseek-r1:14b

# For 32GB+ RAM/VRAM (Excellent reasoning)
ollama pull deepseek-r1:32b

Etapa 3: configurar o OpenClaw

Execute o assistente de configuração do OpenClaw:

openclaw config

Selecione Ollama como seu provedor e insira o nome do modelo que você acabou de extrair (por exemplo, deepseek-r1:7b).

Ou edite seu arquivo de configuração diretamente (~/.openclaw/config.json):

{
  "llm": {
    "provider": "ollama",
    "model": "deepseek-r1:7b",
    "baseUrl": "http://localhost:11434"
  }
}

Por que DeepSeek + OpenClaw?

1. Custo

Executar OpenClaw com DeepSeek é gratuito. Você não paga por token. Você pode deixar seu agente trabalhando 24 horas por dia, 7 dias por semana para monitorar seu e-mail ou Discord sem se preocupar com uma conta surpresa.

2. Privacidade

DeepSeek R1 executado via Ollama nunca envia seus dados para a nuvem. OpenClaw processa tudo localmente. Seu calendário, e-mails e arquivos permanecem no disco.

3. Capacidades de “raciocínio”

DeepSeek R1 é um modelo de “raciocínio” (como OpenAI o1). Ele “pensa” antes de responder, o que o torna excepcionalmente bom em tarefas complexas como:

  • Auditoria de código: peça ao OpenClaw para revisar um repositório git local.
  • Extração de dados: faça com que ele analise PDFs ou sites confusos.
  • Planejamento: peça para planejar um itinerário de viagem com base nas restrições do seu calendário.

Dicas de desempenho

  • Janela de contexto: DeepSeek suporta contextos grandes. O OpenClaw gerencia automaticamente o contexto, mas windows maiores requerem mais RAM.
  • Prompt do sistema: O prompt do sistema padrão do OpenClaw funciona bem, mas para o DeepSeek, você pode encorajar a “cadeia de pensamento” adicionando “Vamos pensar passo a passo” às suas instruções personalizadas.

Conclusão

A combinação das ferramentas do OpenClaw (navegador, sistema de arquivos, aplicativos) e da inteligência do DeepSeek é poderosa. Você tem um funcionário privado e gratuito que trabalha incansavelmente em sua máquina.

Pronto para experimentar?

npm i -g openclaw
openclaw onboard

Need help?

Join the OpenClaw community on Discord for support, tips, and shared skills.

Join Discord →