Le guide ultime pour utiliser Ollama avec OpenClaw
Tout ce que vous devez savoir sur l'exécution de LLM locaux avec Ollama et OpenClaw. Configuration, sélection du modèle et réglage des performances.
Quick Answer
Ollama sert de backend à OpenClaw pour exécuter des modèles locaux. En connectant OpenClaw au port du serveur local d'Ollama (11434), vous pouvez utiliser des modèles comme Llama 3, Mistral et Gemma pour alimenter votre assistant IA sans accès à Internet.
L’IA cloud est géniale, mais l’IA locale est synonyme de liberté. Absence d’abonnements, absence de problèmes de confidentialité et absence de temps d’arrêt.
OpenClaw a été conçu pour être indépendant du modèle, mais son meilleur ami est sans aucun doute Ollama. Ensemble, ils transforment votre ordinateur en une centrale d’IA autonome.
Qu’est-ce qu’Ollama ?
Ollama est un outil qui vous permet d’exécuter des grands modèles de langage (LLM) localement. Il gère la partie complexe « inférence » : charger le modèle en mémoire et générer du texte. Il expose une API simple avec laquelle OpenClaw communique.
Configuration de l’intégration
1. Le “Serveur”
Ollama doit fonctionner en arrière-plan. Sur macOS et Windows, l’application de bureau gère cela automatiquement. Sous Linux :
ollama serve
2. Le “Client” (OpenClaw)
OpenClaw envoie des invites à Ollama. Il vous suffit de lui indiquer où Ollama écoute (généralement http://localhost:11434).
Choisir le bon modèle
Tous les modèles locaux ne sont pas égaux. Voici nos meilleurs choix pour les agents OpenClaw en 2026 :
Les polyvalents
- Llama 3.2 (8B) : vitesse incroyable et raisonnement pour sa taille. Parfait pour la plupart des MacBook.
- Mistral Large 2 : si vous disposez de plus de 24 Go de RAM, cela rivalise avec GPT-4.
Le Spécialisé
- CodeLlama / DeepSeek-Coder : utilisez-les si vous utilisez principalement OpenClaw pour des tâches de codage.
- Phi-4 : Petit mais puissant. Idéal pour les ordinateurs portables plus anciens ou les tâches en arrière-plan.
Configuration avancée
Fenêtre contextuelle
Par défaut, Ollama peut limiter le contexte à 4 000 ou 8 000 jetons. OpenClaw peut gérer bien plus. Vous pouvez augmenter cela dans votre fichier de modèle spécifique (Modelfile) dans Ollama :
PARAMETER num_ctx 32768
Reconstruisez ensuite le modèle : ollama create my-large-model -f Modelfile.
Température
Pour un agent qui entreprend des actions (comme OpenClaw), une température plus basse est généralement préférable pour garantir la fiabilité. OpenClaw est par défaut de 0,0 pour l’utilisation de l’outil, mais vous pouvez modifier cela dans config.json.
Dépannage
- “Connexion refusée” : Assurez-vous qu’Ollama est réellement en cours d’exécution ! Vérifiez votre barre de menus (Mac) ou votre barre des tâches (Windows).
- “Modèle introuvable” : assurez-vous d’avoir exécuté
ollama pull [modelname]avant d’essayer de l’utiliser dans OpenClaw. - Lenteur : Vérifiez si votre modèle rentre dans la VRAM (
ollama ps). Si cela se répand dans la RAM du système, cela sera lent. Essayez une “quantification” plus petite (par exemple, q4_k_m).
L’avenir local
Exécuter OpenClaw avec Ollama ressemble à de la magie. Il n’y a aucun décalage réseau de latence. Vous pouvez faire glisser un fichier dans votre discussion et OpenClaw le lit instantanément.
Commencez dès aujourd’hui en installant OpenClaw.
> Related Articles
Le guide ultime pour utiliser Ollama avec OpenClaw
Tout ce que vous devez savoir sur l'exécution de LLM locaux avec Ollama et OpenClaw. Configuration, sélection du modèle et réglage des performances.
The Ultimate Guide to Using Ollama with OpenClaw
Everything you need to know about running local LLMs with Ollama and OpenClaw. Setup, model selection, and performance tuning.
Comment exécuter DeepSeek R1 localement avec OpenClaw
Découvrez comment exécuter le puissant modèle DeepSeek R1 localement sur votre machine à l'aide d'OpenClaw et d'Ollama. Confidentialité, rapidité et coût nul.
Need help?
Join the OpenClaw community on Discord for support, tips, and shared skills.
Join Discord →