Tutorial IA local DeepSeek

Cómo ejecutar DeepSeek R1 localmente con OpenClaw

Aprenda a ejecutar el potente modelo DeepSeek R1 localmente en su máquina usando OpenClaw y Ollama. Privacidad, rapidez y coste cero.

Updated: 20 de febrero de 2026 8 minutos de lectura

Quick Answer

Puede ejecutar DeepSeek R1 localmente con OpenClaw instalando Ollama, extrayendo el modelo `deepseek-r1` y configurando OpenClaw para usar el proveedor de Ollama. Esto le brinda un potente agente de IA privado sin costos de API.

DeepSeek R1 ha conquistado el mundo de la IA. Su rendimiento rivaliza con los modelos propietarios de primer nivel como GPT-4o y Claude 3.5 Sonnet, pero es de peso abierto y puede ejecutarse en su propio hardware.

Cuando combinas DeepSeek R1 con OpenClaw, obtienes el santo grial de la IA personal: un agente altamente inteligente y totalmente autónomo que se ejecuta completamente en tu máquina, sin costos de API y con total privacidad.

Aquí se explica cómo configurarlo.

Requisitos previos

  • Hardware: una Mac con Apple Silicon (M1/M2/M3) o una PC con una GPU NVIDIA (se recomiendan 8 GB+ de VRAM para los modelos 7B/8B).
  • Software: OpenClaw instalado (guía).

Paso 1: Instalar Ollama

Ollama es la forma más sencilla de ejecutar LLM locales. Si aún no lo has hecho:

  1. Descargue Ollama desde ollama.com.
  2. Instálelo y ejecútelo.

Paso 2: extraiga DeepSeek R1

Abra su terminal y extraiga el modelo DeepSeek. Las versiones “destiladas” son excelentes para la mayoría del hardware de consumo:

# For 8GB RAM/VRAM (Fast, good reasoning)
ollama pull deepseek-r1:7b

# For 16GB+ RAM/VRAM (Better reasoning)
ollama pull deepseek-r1:14b

# For 32GB+ RAM/VRAM (Excellent reasoning)
ollama pull deepseek-r1:32b

Paso 3: Configurar OpenClaw

Ejecute el asistente de configuración de OpenClaw:

openclaw config

Seleccione Ollama como su proveedor e ingrese el nombre del modelo que acaba de extraer (por ejemplo, deepseek-r1:7b).

O edite su archivo de configuración directamente (~/.openclaw/config.json):

{
  "llm": {
    "provider": "ollama",
    "model": "deepseek-r1:7b",
    "baseUrl": "http://localhost:11434"
  }
}

¿Por qué DeepSeek + OpenClaw?

1. Costo

Ejecutar OpenClaw con DeepSeek es gratis. No pagas por token. Puede dejar a su agente trabajando las 24 horas del día, los 7 días de la semana para monitorear su correo electrónico o Discord sin preocuparse por una factura sorpresa.

2. Privacidad

DeepSeek R1 que se ejecuta a través de Ollama nunca envía sus datos a la nube. OpenClaw procesa todo localmente. Su calendario, correos electrónicos y archivos permanecen en su disco.

3. Capacidades de “razonamiento”

DeepSeek R1 es un modelo de “razonamiento” (como OpenAI o1). “Piensa” antes de responder, lo que lo hace excepcionalmente bueno en tareas complejas como:

  • Auditoría de código: Pídale a OpenClaw que revise un repositorio de git local.
  • Extracción de datos: haga que analice archivos PDF o sitios web desordenados.
  • Planificación: pídale que planifique un itinerario de viaje según las limitaciones de su calendario.

Consejos de rendimiento

  • Ventana de contexto: DeepSeek admite contextos grandes. OpenClaw gestiona automáticamente el contexto, pero las ventanas más grandes requieren más RAM.
  • Mensaje del sistema: el mensaje del sistema predeterminado de OpenClaw funciona bien, pero para DeepSeek, es posible que desee fomentar la “cadena de pensamiento” agregando “Pensemos paso a paso” a sus instrucciones personalizadas.

Conclusión

La combinación de herramientas de OpenClaw (navegador, sistema de archivos, aplicaciones) y la inteligencia de DeepSeek es poderosa. Tienes un empleado privado y gratuito que trabaja incansablemente en tu máquina.

¿Listo para intentarlo?

npm i -g openclaw
openclaw onboard

Need help?

Join the OpenClaw community on Discord for support, tips, and shared skills.

Join Discord →