Cómo ejecutar DeepSeek R1 localmente con OpenClaw
Aprenda a ejecutar el potente modelo DeepSeek R1 localmente en su máquina usando OpenClaw y Ollama. Privacidad, rapidez y coste cero.
Quick Answer
Puede ejecutar DeepSeek R1 localmente con OpenClaw instalando Ollama, extrayendo el modelo `deepseek-r1` y configurando OpenClaw para usar el proveedor de Ollama. Esto le brinda un potente agente de IA privado sin costos de API.
DeepSeek R1 ha conquistado el mundo de la IA. Su rendimiento rivaliza con los modelos propietarios de primer nivel como GPT-4o y Claude 3.5 Sonnet, pero es de peso abierto y puede ejecutarse en su propio hardware.
Cuando combinas DeepSeek R1 con OpenClaw, obtienes el santo grial de la IA personal: un agente altamente inteligente y totalmente autónomo que se ejecuta completamente en tu máquina, sin costos de API y con total privacidad.
Aquí se explica cómo configurarlo.
Requisitos previos
- Hardware: una Mac con Apple Silicon (M1/M2/M3) o una PC con una GPU NVIDIA (se recomiendan 8 GB+ de VRAM para los modelos 7B/8B).
- Software: OpenClaw instalado (guía).
Paso 1: Instalar Ollama
Ollama es la forma más sencilla de ejecutar LLM locales. Si aún no lo has hecho:
- Descargue Ollama desde ollama.com.
- Instálelo y ejecútelo.
Paso 2: extraiga DeepSeek R1
Abra su terminal y extraiga el modelo DeepSeek. Las versiones “destiladas” son excelentes para la mayoría del hardware de consumo:
# For 8GB RAM/VRAM (Fast, good reasoning)
ollama pull deepseek-r1:7b
# For 16GB+ RAM/VRAM (Better reasoning)
ollama pull deepseek-r1:14b
# For 32GB+ RAM/VRAM (Excellent reasoning)
ollama pull deepseek-r1:32b
Paso 3: Configurar OpenClaw
Ejecute el asistente de configuración de OpenClaw:
openclaw config
Seleccione Ollama como su proveedor e ingrese el nombre del modelo que acaba de extraer (por ejemplo, deepseek-r1:7b).
O edite su archivo de configuración directamente (~/.openclaw/config.json):
{
"llm": {
"provider": "ollama",
"model": "deepseek-r1:7b",
"baseUrl": "http://localhost:11434"
}
}
¿Por qué DeepSeek + OpenClaw?
1. Costo
Ejecutar OpenClaw con DeepSeek es gratis. No pagas por token. Puede dejar a su agente trabajando las 24 horas del día, los 7 días de la semana para monitorear su correo electrónico o Discord sin preocuparse por una factura sorpresa.
2. Privacidad
DeepSeek R1 que se ejecuta a través de Ollama nunca envía sus datos a la nube. OpenClaw procesa todo localmente. Su calendario, correos electrónicos y archivos permanecen en su disco.
3. Capacidades de “razonamiento”
DeepSeek R1 es un modelo de “razonamiento” (como OpenAI o1). “Piensa” antes de responder, lo que lo hace excepcionalmente bueno en tareas complejas como:
- Auditoría de código: Pídale a OpenClaw que revise un repositorio de git local.
- Extracción de datos: haga que analice archivos PDF o sitios web desordenados.
- Planificación: pídale que planifique un itinerario de viaje según las limitaciones de su calendario.
Consejos de rendimiento
- Ventana de contexto: DeepSeek admite contextos grandes. OpenClaw gestiona automáticamente el contexto, pero las ventanas más grandes requieren más RAM.
- Mensaje del sistema: el mensaje del sistema predeterminado de OpenClaw funciona bien, pero para DeepSeek, es posible que desee fomentar la “cadena de pensamiento” agregando “Pensemos paso a paso” a sus instrucciones personalizadas.
Conclusión
La combinación de herramientas de OpenClaw (navegador, sistema de archivos, aplicaciones) y la inteligencia de DeepSeek es poderosa. Tienes un empleado privado y gratuito que trabaja incansablemente en tu máquina.
¿Listo para intentarlo?
npm i -g openclaw
openclaw onboard > Related Articles
Cómo ejecutar DeepSeek R1 localmente con OpenClaw
Aprenda a ejecutar el potente modelo DeepSeek R1 localmente en su máquina usando OpenClaw y Ollama. Privacidad, rapidez y coste cero.
Como executar DeepSeek R1 localmente com OpenClaw
Aprenda como executar o poderoso modelo DeepSeek R1 localmente em sua máquina usando OpenClaw e Ollama. Privacidade, velocidade e custo zero.
How to Run DeepSeek R1 Locally with OpenClaw
Learn how to run the powerful DeepSeek R1 model locally on your machine using OpenClaw and Ollama. Privacy, speed, and zero cost.
Need help?
Join the OpenClaw community on Discord for support, tips, and shared skills.
Join Discord →