Logo Opencode

Opencode

Agent de coding IA open source n°1 — 120K+ étoiles GitHub, multi-providers

FreemiumUSA

Presentation

OpenCode est un agent IA de coding open source développé par Anomaly, les créateurs de terminal.shop. Lancé en avril 2025, il s'est imposé comme l'alternative open source n°1 à Claude Code avec plus de 120 000 étoiles GitHub et 5 millions de développeurs mensuels.

Pourquoi choisir OpenCode ?

  • Multi-providers : Claude, GPT, Gemini, Mistral, DeepSeek, Ollama et 10+ providers — vous n'êtes jamais enfermé
  • Open source (MIT) : code 100% transparent, aucune télémétrie, privacy-first
  • Ultra-rapide : binaire unique Go, démarrage < 200ms, TUI vim-like avec Bubble Tea
  • Intégration LSP : autocomplétion et intelligence de code native
  • Sessions persistantes : SQLite local, reprenez votre travail où vous l'avez laissé
  • Multi-plateformes : Terminal, Desktop (Electron) et extensions IDE (VS Code, JetBrains)

Nouveautés 2026 (v1.3.x) :

OpenCode v1.3.17 (avril 2026) apporte le support des derniers modèles (Claude Opus 4.5, GPT-5, Gemini 3), une TUI repensée avec panels split, et l'intégration MCP (Model Context Protocol) pour connecter des outils externes. La communauté compte désormais 800+ contributeurs actifs.

Comment utiliser

La méthode la plus simple :

  • npm : npm i -g opencode-ai@latest
  • macOS (Homebrew) : brew install anomalyco/tap/opencode
  • Windows (Scoop) : scoop install opencode
  • Arch Linux : paru -S opencode-bin

💡 Sur Windows, WSL est recommandé pour une meilleure expérience.

  • Lancez opencode dans votre terminal
  • Tapez /connect pour configurer votre fournisseur LLM
  • Sélectionnez un provider (OpenCode Zen recommandé pour débuter)
  • Ajoutez votre clé API

Cela crée un fichier AGENTS.md qui aide l’agent à comprendre votre projet.

Astuces & conseils

Commencez par /init

Toujours lancer /init dans un nouveau projet. Cela cree un fichier AGENTS.md qui aide l agent a comprendre la structure de votre code.

Mode Plan avant Build

Utilisez le mode Plan avec Tab pour analyser et planifier avant de laisser l agent modifier votre code.

Modeles locaux gratuits

Connectez Ollama pour utiliser des modeles locaux comme Llama, Mistral ou Qwen. 100% gratuit et prive.

Glissez-deposez les images

Vous pouvez glisser-deposer des screenshots directement dans le terminal pour demander de l aide sur une UI.

Partagez vos sessions

La commande /share genere un lien public de votre conversation. Pratique pour le debug en equipe.

Multi-sessions paralleles

Lancez plusieurs instances d Opencode sur le meme projet pour travailler sur differentes features en parallele.

Fonctionnalites cles

Modeles IA

Claude Opus 4.5

Recommande

Le plus capable pour le code complexe

Claude Sonnet 4.5

Recommande

Meilleur rapport qualité/prix

GPT-5

Modèle phare OpenAI

Gemini 3 Pro

Bon en multi-fichiers

DeepSeek V3.2

Ultra low-cost, bon en code

Llama 3.3 (via Ollama)

Gratuit, local, 100% privé

Qwen 3.5 (via Ollama)

Gratuit, bon en multilingue

Mistral Large (via Ollama)

Modèle français, performant

Tarifs & plans

Populaire

Gratuit

0€

  • Open source MIT
  • Tous les providers supportés
  • Sessions illimitées
  • Vous payez uniquement les API LLM

Avec Ollama (local)

0€ total

  • Modèles locaux gratuits
  • Aucune API nécessaire
  • 100% hors-ligne possible
  • GPU 16+ Go VRAM recommandé

Usage typique (Claude API)

~20€/mois

  • Claude Sonnet : ~3€/M tokens
  • Claude Opus : ~15€/M tokens
  • Qualité professionnelle
  • Usage dev moyen : 15-25€/mois

Questions frequentes

Opencode est open source et multi-providers : vous pouvez utiliser Claude, GPT, Gemini ou des modeles locaux. Claude Code est proprietaire et limite a Claude uniquement. Opencode offre aussi des fonctionnalites comme le multi-sessions et le partage de liens.
Oui, Opencode est 100% gratuit et open source sous licence MIT. Cependant, vous devez payer pour les API des LLM que vous utilisez (Claude, OpenAI...) sauf si vous utilisez des modeles locaux gratuits via Ollama ou des services comme DeepSeek.
Pour la qualite : Claude Opus 4.5 ou GPT-5Pour le rapport qualite/prix : Claude Sonnet ou Mistral LargePour le gratuit : Modeles locaux via Ollama (Llama, Qwen, Mistral) ou DeepSeek API
Oui, en connectant Opencode a Ollama qui fait tourner des modeles locaux sur votre machine. Vous aurez besoin d un GPU avec suffisamment de VRAM (16-24 GB recommandes pour de bonnes performances).
Opencode ne stocke aucune donnee de code ni de contexte sur ses serveurs (privacy-first). Tout reste local ou transite vers le provider LLM que vous avez choisi. Pour une confidentialite totale, utilisez des modeles locaux.

Glossaire associe

Agent IA

Programme autonome qui peut analyser, planifier et executer des actions (comme modifier du code) sans intervention constante de l utilisateur.

LSP (Language Server Protocol)

Protocole standardise qui permet aux editeurs de code de comprendre la syntaxe, les erreurs et l autocompletion pour chaque langage.

Provider LLM

Service qui fournit l acces a un modele de langage : Anthropic (Claude), OpenAI (GPT), Google (Gemini), Mistral, ou modeles locaux.

Ollama

Outil open source pour faire tourner des LLM localement sur votre machine. Supporte Llama, Mistral, Qwen et autres modeles.

Mode Build vs Plan

Build permet a l agent de modifier les fichiers. Plan est en lecture seule pour analyser et proposer sans toucher au code.

AGENTS.md

Fichier de configuration cree par /init qui decrit votre projet pour aider l agent a mieux comprendre le contexte et les conventions.

4/5
MAJ : 27 avril 2026
Fonde en 2025
1 007 vues

Ressources connexes