Logo OpenClaw

OpenClaw

L'assistant IA personnel open-source qui a fait trembler la tech (ex-Clawdbot/Moltbot)

Freemium

Presentation

OpenClaw (anciennement Clawdbot puis Moltbot) est un assistant IA personnel open-source qui a explosé fin 2025. Plus de 100 000 GitHub stars et 2 millions de visiteurs en une semaine.

Créé par Peter Steinberger en novembre 2025 sous le nom « Clawdbot » (jeu de mots sur Claude avec une pince), le projet a dû être renommé deux fois :

  • Clawdbot → Anthropic demande un changement (confusion avec Claude)
  • Moltbot → Nouveau nom temporaire
  • OpenClaw → Nom final après la stabilisation

OpenClaw est un agent IA autonome qui tourne en local et se connecte à vos apps quotidiennes :

  • WhatsApp, Slack, Discord, iMessage, Telegram, Signal
  • Email, calendrier
  • Commandes système
  • Navigation web

Contrairement à un chatbot, OpenClaw agit : il peut envoyer des messages, créer des événements, exécuter des commandes, et prendre des décisions autonomes.

OpenClaw est model-agnostic et supporte tous les providers. Le choix du modèle impacte fortement les performances :

Palo Alto Networks et d’autres firmes de sécurité ont soulevé des inquiétudes : OpenClaw nécessite l’accès aux fichiers système, credentials, cookies, et historique navigateur. À utiliser avec précaution.

  • Moltbook : Réseau social exclusif pour agents IA (lancé janvier 2026)
  • Molthub : Marketplace de capabilities/skills pour bots
  • awesome-openclaw-skills : Collection GitHub de skills communautaires

Comment utiliser

Dans votre fichier .env :

Chaque service nécessite une configuration spécifique :

  • WhatsApp : Scan QR code via WhatsApp Web
  • Slack : Token d’app Slack
  • Discord : Bot token Discord
  • Telegram : Bot token via @BotFather
  • Email : IMAP/SMTP credentials

Avant d’utiliser OpenClaw :

  • Lisez attentivement les permissions requises
  • Utilisez un compte/machine dédié si possible
  • Limitez les accès au strict nécessaire
  • Préférez Claude Opus pour sa résistance aux prompt injections
  • Auditez le code si vous avez les compétences

Fonctionnalites cles

Exécution locale

Tourne sur votre machine ou serveur privé, pas de cloud obligatoire

Multi-plateformes

Connectez WhatsApp, Slack, Discord, Telegram, Signal, iMessage

Autonomie

Prend des décisions et agit sans intervention constante

Open Source

Code source disponible, auditable, modifiable

Email & Calendrier

Gestion autonome des emails et planning

Commandes système

Peut exécuter des commandes shell selon vos instructions

Modeles IA

Claude Opus 4.5v4.5

Recommande
Contexte

200K tokens

Vitesse

Moyen

Cout

~15$/M input, ~75$/M output

Multimodal

Oui

Agents complexes, tâches longues

🥇 RECOMMANDÉ OFFICIEL. 80.9% SWE-bench (meilleur du marché). Excellente résistance aux prompt injections. Idéal pour les agents autonomes qui manipulent des données sensibles.

Kimi K2.5vK2.5

Recommande
Contexte

128K-2M tokens

Vitesse

Rapide

Cout

~0.75$/M tokens (1/20e GPT-5)

Multimodal

Oui

Rapport qualité/prix, swarm agents

🔥 NOUVEAU. 1T paramètres MoE. Bat GPT-5.2 sur HLE avec outils (50.2 vs 45.5). Agent Swarm natif : coordonne jusqu'à 100 sous-agents en parallèle. API compatible OpenAI.

GPT-5.2v5.2

Contexte

256K tokens

Vitesse

Rapide

Cout

~15$/M input, ~60$/M output

Multimodal

Oui

Raisonnement pur, maths

Meilleur sur AIME 2025 (maths). Très bon pour le raisonnement complexe mais plus cher que les alternatives pour les agents.

Gemini 3 Prov3.0

Contexte

2M tokens

Vitesse

Rapide

Cout

Variable selon usage

Multimodal

Oui

Contexte très long, intégration Google

76.2% SWE-bench. Fenêtre de contexte massive (2M tokens). Idéal si vous travaillez dans l'écosystème Google.

Claude Sonnet 4.5v4.5

Contexte

200K tokens

Vitesse

Très rapide

Cout

~3$/M input, ~15$/M output

Multimodal

Oui

Équilibre vitesse/qualité

Excellent compromis entre Opus (qualité) et Haiku (vitesse). Bon pour les agents avec beaucoup d'interactions.

DeepSeek V3.2vV3.2

Contexte

128K tokens

Vitesse

Rapide

Cout

GRATUIT (API)

Budget zéro, projets perso

💰 GRATUIT. Performances comparables à GPT-4. Parfait pour expérimenter sans frais. Serveurs parfois saturés.

Mistral Large 3vLarge 3

Contexte

128K tokens

Vitesse

Rapide

Cout

~2$/M input, ~6$/M output

Multimodal

Oui

Europe, RGPD, code

Modèle européen (France). 675B paramètres totaux. Bon pour le code et respectueux RGPD.

Llama 3.3 70Bv3.3

Contexte

128K tokens

Vitesse

Moyen

Cout

Gratuit (local)

Confidentialité totale

🔒 LOCAL. Nécessite ~40 GB VRAM (ou quantifié Q4: ~24 GB). Tout reste sur votre machine. Via Ollama.

Qwen 2.5 72Bv2.5

Contexte

128K tokens

Vitesse

Moyen

Cout

Gratuit (local)

Agents locaux, multilingue

🔒 LOCAL. ~40 GB VRAM (Q4: ~24 GB). Excellent en français et multilingue. Via Ollama.

Mistral Small 3 24Bv3.0

Contexte

32K tokens

Vitesse

Rapide

Cout

Gratuit (local)

GPU grand public (RTX 3090/4090)

🔒 LOCAL. ~14 GB VRAM. Sweet spot pour RTX 3090/4090. Très bon pour les agents simples.

OpenRoutervMulti

Contexte

Variable

Vitesse

Variable

Cout

Pay-per-use

Multimodal

Oui

Flexibilité, fallback

🔀 MULTI-MODÈLE. Agrégateur qui permet de switcher entre providers. Utile pour le fallback automatique si un service est down.

Questions frequentes

Pour la performance max : Claude Opus 4.5 (défaut officiel, 80.9% SWE-bench)Pour le rapport qualité/prix : Kimi K2.5 (performances ~GPT-5 à 1/20e du coût)Pour la confidentialité : Llama 3.3 70B via Ollama (local)Pour budget zéro : DeepSeek V3 (gratuit)
Oui ! OpenClaw supporte Ollama nativement. Pour de bonnes performances, il faut minimum :• Sweet spot : RTX 4090 24 GB → Mistral Small 3 24B• Optimal : 2x RTX 4090 ou A100 → Llama 3.3 70BLes modèles quantifiés (Q4_K_M) réduisent les besoins VRAM de ~60%.
Kimi K2.5 est le modèle de Moonshot AI (Chine) lancé en janvier 2026. 1 trillion de paramètres en architecture MoE. Sa killer feature : Agent Swarm qui coordonne jusqu'à 100 sous-agents en parallèle. API compatible OpenAI, donc facile à intégrer.
OpenClaw nécessite des accès sensibles (fichiers, credentials, cookies). Plusieurs firmes de sécurité ont émis des avertissements. Conseils :• Utilisez Claude Opus (meilleure résistance aux prompt injections)• Machine/compte dédié• Auditez les Skills que vous installez• Limitez les permissions au strict nécessaire
"Clawdbot" était un jeu de mots sur Claude (le modèle d'Anthropic) avec une pince (claw). Anthropic a demandé poliment un changement pour éviter la confusion. "Moltbot" (référence à la mue du homard) a suivi, puis "OpenClaw" pour refléter la nature open-source.

Glossaire associe

Agent IA

Programme qui peut prendre des décisions et exécuter des actions de manière autonome, contrairement à un chatbot qui répond uniquement.

Agent Swarm

Technique où un agent principal coordonne plusieurs sous-agents travaillant en parallèle sur différentes sous-tâches.

MoE (Mixture of Experts)

Architecture où le modèle active seulement une partie des paramètres selon la tâche. Permet des modèles massifs (1T params) avec un coût d'inférence réduit.

Prompt Injection

Attaque où un input malveillant manipule le comportement de l'agent. Claude Opus est réputé plus résistant.

Quantization

Réduction de la précision des poids (FP16→Q4) pour réduire la VRAM nécessaire avec une perte de qualité minimale.

Skills

Extensions/plugins qui ajoutent des capacités à OpenClaw (intégrations, automatisations spécifiques).

SWE-bench

Benchmark qui mesure la capacité d'un modèle à résoudre de vrais bugs sur des repos GitHub. Claude Opus 4.5 : 80.9%.

Fonde en 2025
34 vues