Tutoriel IA locale DeepSeek

Comment exécuter DeepSeek R1 localement avec OpenClaw

Découvrez comment exécuter le puissant modèle DeepSeek R1 localement sur votre machine à l'aide d'OpenClaw et d'Ollama. Confidentialité, rapidité et coût nul.

Updated: 20 février 2026 8 minutes de lecture

Quick Answer

Vous pouvez exécuter DeepSeek R1 localement avec OpenClaw en installant Ollama, en extrayant le modèle « deepseek-r1 » et en configurant OpenClaw pour utiliser le fournisseur Ollama. Cela vous donne un agent d’IA puissant et privé sans frais d’API.

DeepSeek R1 a pris d’assaut le monde de l’IA. Ses performances rivalisent avec les modèles propriétaires de premier plan comme le GPT-4o et le Claude 3.5 Sonnet, mais il s’agit d’un poids ouvert et peut fonctionner sur votre propre matériel.

Lorsque vous combinez DeepSeek R1 avec OpenClaw, vous obtenez le Saint Graal de l’IA personnelle : un agent hautement intelligent et entièrement autonome qui s’exécute entièrement sur votre machine, sans frais d’API et avec une confidentialité totale.

Voici comment le configurer.

Prérequis

  • Matériel : Un Mac avec Apple Silicon (M1/M2/M3) ou un PC avec un GPU NVIDIA (8 Go+ VRAM recommandés pour les modèles 7B/8B).
  • Logiciel : OpenClaw installé (guide).

Étape 1 : Installer Ollama

Ollama est le moyen le plus simple d’exécuter des LLM locaux. Si vous ne l’avez pas déjà fait :

  1. Téléchargez Ollama depuis ollama.com.
  2. Installez-le et exécutez-le.

Étape 2 : Extrayez DeepSeek R1

Ouvrez votre terminal et extrayez le modèle DeepSeek. Les versions « distill » sont idéales pour la plupart des matériels grand public :

# For 8GB RAM/VRAM (Fast, good reasoning)
ollama pull deepseek-r1:7b

# For 16GB+ RAM/VRAM (Better reasoning)
ollama pull deepseek-r1:14b

# For 32GB+ RAM/VRAM (Excellent reasoning)
ollama pull deepseek-r1:32b

Étape 3 : Configurer OpenClaw

Exécutez l’assistant de configuration OpenClaw :

openclaw config

Sélectionnez Ollama comme fournisseur et saisissez le nom du modèle que vous venez d’extraire (par exemple, deepseek-r1:7b).

Ou modifiez directement votre fichier de configuration (~/.openclaw/config.json) :

{
  "llm": {
    "provider": "ollama",
    "model": "deepseek-r1:7b",
    "baseUrl": "http://localhost:11434"
  }
}

Pourquoi DeepSeek + OpenClaw ?

1. Coût

Exécuter OpenClaw avec DeepSeek est gratuit. Vous ne payez pas par jeton. Vous pouvez laisser votre agent fonctionner 24h/24 et 7j/7 pour surveiller votre courrier électronique ou Discord sans vous soucier d’une facture surprise.

2. Confidentialité

DeepSeek R1 exécuté via Ollama n’envoie jamais vos données vers le cloud. OpenClaw traite tout localement. Votre calendrier, vos e-mails et vos fichiers restent sur votre disque.

3. Capacités de « raisonnement »

DeepSeek R1 est un modèle de « raisonnement » (comme OpenAI o1). Il « réfléchit » avant de répondre, ce qui le rend exceptionnellement doué pour des tâches complexes telles que :

  • Audit de code : demandez à OpenClaw d’examiner un dépôt git local.
  • Extraction de données : demandez-lui d’analyser des PDF ou des sites Web en désordre.
  • Planification : demandez-lui de planifier un itinéraire de voyage en fonction de vos contraintes de calendrier.

Conseils sur les performances

  • Fenêtre contextuelle : DeepSeek prend en charge les contextes étendus. OpenClaw gère automatiquement le contexte, mais les fenêtres plus grandes nécessitent plus de RAM.
  • Invite système : l’invite système par défaut d’OpenClaw fonctionne bien, mais pour DeepSeek, vous souhaiterez peut-être encourager la « chaîne de pensée » en ajoutant « Réfléchissons étape par étape » à vos instructions personnalisées.

Conclusion

La combinaison des outils d’OpenClaw (navigateur, système de fichiers, applications) et de l’intelligence de DeepSeek est puissante. Vous disposez d’un employé privé et gratuit qui travaille sans relâche sur votre machine.

Prêt à essayer ?

npm i -g openclaw
openclaw onboard

Need help?

Join the OpenClaw community on Discord for support, tips, and shared skills.

Join Discord →