
OpenClaw
L'assistant IA personnel open-source qui a fait trembler la tech (ex-Clawdbot/Moltbot)
Presentation
OpenClaw (anciennement Clawdbot puis Moltbot) est un assistant IA personnel open-source qui a explosé fin 2025. Plus de 100 000 GitHub stars et 2 millions de visiteurs en une semaine.
Créé par Peter Steinberger en novembre 2025 sous le nom « Clawdbot » (jeu de mots sur Claude avec une pince), le projet a dû être renommé deux fois :
- Clawdbot → Anthropic demande un changement (confusion avec Claude)
- Moltbot → Nouveau nom temporaire
- OpenClaw → Nom final après la stabilisation
OpenClaw est un agent IA autonome qui tourne en local et se connecte à vos apps quotidiennes :
- WhatsApp, Slack, Discord, iMessage, Telegram, Signal
- Email, calendrier
- Commandes système
- Navigation web
Contrairement à un chatbot, OpenClaw agit : il peut envoyer des messages, créer des événements, exécuter des commandes, et prendre des décisions autonomes.
OpenClaw est model-agnostic et supporte tous les providers. Le choix du modèle impacte fortement les performances :
Palo Alto Networks et d’autres firmes de sécurité ont soulevé des inquiétudes : OpenClaw nécessite l’accès aux fichiers système, credentials, cookies, et historique navigateur. À utiliser avec précaution.
- Moltbook : Réseau social exclusif pour agents IA (lancé janvier 2026)
- Molthub : Marketplace de capabilities/skills pour bots
- awesome-openclaw-skills : Collection GitHub de skills communautaires
Comment utiliser
Dans votre fichier .env :
Chaque service nécessite une configuration spécifique :
- WhatsApp : Scan QR code via WhatsApp Web
- Slack : Token d’app Slack
- Discord : Bot token Discord
- Telegram : Bot token via @BotFather
- Email : IMAP/SMTP credentials
Avant d’utiliser OpenClaw :
- Lisez attentivement les permissions requises
- Utilisez un compte/machine dédié si possible
- Limitez les accès au strict nécessaire
- Préférez Claude Opus pour sa résistance aux prompt injections
- Auditez le code si vous avez les compétences
Fonctionnalites cles
Exécution locale
Tourne sur votre machine ou serveur privé, pas de cloud obligatoire
Multi-plateformes
Connectez WhatsApp, Slack, Discord, Telegram, Signal, iMessage
Autonomie
Prend des décisions et agit sans intervention constante
Open Source
Code source disponible, auditable, modifiable
Email & Calendrier
Gestion autonome des emails et planning
Commandes système
Peut exécuter des commandes shell selon vos instructions
Modeles IA
Claude Opus 4.5v4.5
Recommande200K tokens
Moyen
~15$/M input, ~75$/M output
Oui
Agents complexes, tâches longues
🥇 RECOMMANDÉ OFFICIEL. 80.9% SWE-bench (meilleur du marché). Excellente résistance aux prompt injections. Idéal pour les agents autonomes qui manipulent des données sensibles.
Kimi K2.5vK2.5
Recommande128K-2M tokens
Rapide
~0.75$/M tokens (1/20e GPT-5)
Oui
Rapport qualité/prix, swarm agents
🔥 NOUVEAU. 1T paramètres MoE. Bat GPT-5.2 sur HLE avec outils (50.2 vs 45.5). Agent Swarm natif : coordonne jusqu'à 100 sous-agents en parallèle. API compatible OpenAI.
GPT-5.2v5.2
256K tokens
Rapide
~15$/M input, ~60$/M output
Oui
Raisonnement pur, maths
Meilleur sur AIME 2025 (maths). Très bon pour le raisonnement complexe mais plus cher que les alternatives pour les agents.
Gemini 3 Prov3.0
2M tokens
Rapide
Variable selon usage
Oui
Contexte très long, intégration Google
76.2% SWE-bench. Fenêtre de contexte massive (2M tokens). Idéal si vous travaillez dans l'écosystème Google.
Claude Sonnet 4.5v4.5
200K tokens
Très rapide
~3$/M input, ~15$/M output
Oui
Équilibre vitesse/qualité
Excellent compromis entre Opus (qualité) et Haiku (vitesse). Bon pour les agents avec beaucoup d'interactions.
DeepSeek V3.2vV3.2
128K tokens
Rapide
GRATUIT (API)
Budget zéro, projets perso
💰 GRATUIT. Performances comparables à GPT-4. Parfait pour expérimenter sans frais. Serveurs parfois saturés.
Mistral Large 3vLarge 3
128K tokens
Rapide
~2$/M input, ~6$/M output
Oui
Europe, RGPD, code
Modèle européen (France). 675B paramètres totaux. Bon pour le code et respectueux RGPD.
Llama 3.3 70Bv3.3
128K tokens
Moyen
Gratuit (local)
Confidentialité totale
🔒 LOCAL. Nécessite ~40 GB VRAM (ou quantifié Q4: ~24 GB). Tout reste sur votre machine. Via Ollama.
Qwen 2.5 72Bv2.5
128K tokens
Moyen
Gratuit (local)
Agents locaux, multilingue
🔒 LOCAL. ~40 GB VRAM (Q4: ~24 GB). Excellent en français et multilingue. Via Ollama.
Mistral Small 3 24Bv3.0
32K tokens
Rapide
Gratuit (local)
GPU grand public (RTX 3090/4090)
🔒 LOCAL. ~14 GB VRAM. Sweet spot pour RTX 3090/4090. Très bon pour les agents simples.
OpenRoutervMulti
Variable
Variable
Pay-per-use
Oui
Flexibilité, fallback
🔀 MULTI-MODÈLE. Agrégateur qui permet de switcher entre providers. Utile pour le fallback automatique si un service est down.
Questions frequentes
Glossaire associe
Agent IA
Programme qui peut prendre des décisions et exécuter des actions de manière autonome, contrairement à un chatbot qui répond uniquement.
Agent Swarm
Technique où un agent principal coordonne plusieurs sous-agents travaillant en parallèle sur différentes sous-tâches.
MoE (Mixture of Experts)
Architecture où le modèle active seulement une partie des paramètres selon la tâche. Permet des modèles massifs (1T params) avec un coût d'inférence réduit.
Prompt Injection
Attaque où un input malveillant manipule le comportement de l'agent. Claude Opus est réputé plus résistant.
Quantization
Réduction de la précision des poids (FP16→Q4) pour réduire la VRAM nécessaire avec une perte de qualité minimale.
Skills
Extensions/plugins qui ajoutent des capacités à OpenClaw (intégrations, automatisations spécifiques).
SWE-bench
Benchmark qui mesure la capacité d'un modèle à résoudre de vrais bugs sur des repos GitHub. Claude Opus 4.5 : 80.9%.