0% read

Codex CLI vs Aider vs Claude Code Router 2026 : comparaison avec Gemma 4

avr. 16, 2026

Codex CLI vs Aider vs Claude Code Router 2026 : comparaison avec Gemma 4

Les outils d'IA orientés terminal ont explosé en 2026. Plus besoin d'extension IDE ni d'onglet de navigateur : une seule commande permet à un modèle d'écrire, de refactorer et de déboguer du code directement dans votre shell. Pourtant, trois noms reviennent sans cesse sur Reddit, en une de HN et dans le trending GitHub : Codex CLI, Aider et Claude Code Router (CCR).

Ils se ressemblent en apparence. Tous promettent « du pair programming IA depuis le terminal ». Tous peuvent pointer vers un backend local Gemma 4 26B ou 31B servi par Ollama. Mais dès qu'il s'agit de choisir, le brouillard des opinions s'installe.

Nous avons fait tourner les trois outils en parallèle sur le même matériel (MacBook M3 Max, 64 Go de RAM, Gemma 4 26B servi par Ollama) pendant deux semaines de développement réel. Cet article est le verdict condensé : une matrice de comparaison complète, une analyse détaillée de chaque outil, un arbre de décision et une FAQ qui devrait régler 90 % des questions avant que vous ouvriez un nouvel onglet de terminal.

Si vous ne retenez qu'une phrase : Aider gagne pour la plupart des développeurs en solo, Codex CLI gagne pour un flux OpenAI-compatible propre, et Claude Code Router est un pont pour utilisateurs avancés, avec un risque ToS non négligeable. Le reste de l'article explique pourquoi.

Vue d'ensemble : le tableau comparatif

Voici le tableau qu'on aurait aimé avoir au départ. Chaque ligne reflète des comportements observés, pas du marketing.

CritèreCodex CLIAiderClaude Code Router
ÉditeurOpenAI (officiel)Paul Gauthier (communauté, Apache 2.0)Projet communautaire (proxy de Claude Code)
LicencePartiellement open sourceApache 2.0 (entièrement open source)MIT, mais dépend du Claude Code propriétaire
Support natif des modèles locauxVia variables d'environnement OpenAI-compatibleOui, de première classe (Ollama, LiteLLM)Non, nécessite une traduction par proxy
Temps d'installation (1re fois)10–15 min5–10 min30–60 min
Auto-commit GitNonOui, avec messages générésNon
Repo map / conscience du projetNonOui, basée sur tree-sitterHéritée de Claude Code
Édition multi-fichiersLégère (centrée sur un fichier)ForteForte
Raisonnement étendu (Extended thinking)PartielNonOui (avec la vraie API Claude)
Couverture des langagesTous (via le LLM)50+ via tree-sitterTous
Activité communautaireCroissance rapide (nouveauté 2026)30K+ étoiles GitHub, commits quotidiensNiche mais actif
Risque ToS avec modèles locauxAucunAucunOui — possible violation des ToS Anthropic
Idéal pourTâches ponctuellesProgrammation quotidienne, refactors, soloFans de Claude Code contraints au local

Trois enseignements à retenir :

  1. Aider est la seule option entièrement open source avec un support natif de première classe pour les modèles locaux. Les autres sont partiellement fermées ou reposent sur un produit fermé.
  2. Claude Code Router est le seul outil à zone grise juridique. Si vous travaillez dans une société soumise à une revue juridique, arrêtez ici et installez Aider.
  3. Codex CLI trouve un juste milieu de simplicité : il parle nativement le protocole OpenAI-compatible, donc trois variables d'environnement suffisent pour le pointer sur Ollama.

Analyse détaillée : Codex CLI

OpenAI a publié Codex CLI en avril 2026 comme pendant minimal et natif terminal du mode programmation de ChatGPT. Voyez-le comme un curl pour la génération de code : vous tapez un prompt, il produit ou modifie un fichier, vous passez à autre chose.

Ses points forts

La plus grande force de Codex CLI, c'est la propreté du protocole. Il utilise le format OpenAI Chat Completions sans modification, ce qui signifie que n'importe quel endpoint OpenAI-compatible (Ollama, vLLM, LM Studio, Groq, Together) fonctionne d'emblée. Pour l'utiliser avec Gemma 4 servi par Ollama :

export OPENAI_API_BASE=http://localhost:11434/v1
export OPENAI_API_KEY=ollama
export CODEX_MODEL=gemma4:26b
codex "ajoute un décorateur de retry à fetch_user dans api.py"

Trois export, aucun proxy, aucune couche de traduction. La sortie est déterministe et, comme il n'y a pas de conversion de format intermédiaire, l'usage d'outils et la sortie structurée se comportent exactement comme Gemma 4 les émet nativement.

Ses faiblesses

Codex CLI est volontairement minimal. Pas de repo map : dès que votre projet dépasse un ou deux fichiers, le modèle perd vite le contexte. Pas d'auto-commit : la gestion de version reste à votre charge. L'édition multi-fichiers fonctionne, mais chaque fichier doit être passé explicitement au modèle ; il n'y a aucune recherche de pertinence automatique.

Sur deux semaines de tests, Codex CLI a excellé sur les tâches du style « écris-moi cette fonction » ou « explique-moi ce fichier », mais s'est montré moyen sur « refactore la couche d'authentification répartie sur six fichiers ». Si votre modèle mental est la philosophie Unix (faire une seule chose et la faire bien), Codex CLI est un régal. Si vous attendez un agent, c'est Aider qu'il vous faut.

Verdict

Choisissez Codex CLI si vous voulez un outil propre, sans magie, qui s'accorde sans friction avec n'importe quel modèle local et reste discret.

Analyse détaillée : Aider

Aider se construit en public depuis 2023, et en 2026 c'est la référence open source de facto pour la programmation IA en terminal. Plus de 30 000 étoiles GitHub, un Discord actif, un mainteneur (Paul Gauthier) qui livre tous les jours.

Ses points forts

Aider réunit trois fonctionnalités qu'aucun concurrent ne combine :

  1. Auto-commit Git. Chaque modification de l'IA est committée avec un message généré. Le changement ne vous plaît pas ? git revert et on passe. À lui seul, ce réflexe transforme la liberté avec laquelle vous expérimentez.
  2. Repo map. Aider parse votre projet avec tree-sitter, extrait les signatures de classes et de fonctions, et envoie une structure condensée au modèle. Les modèles locaux comme Gemma 4 26B y gagnent quelques points de contexte parce qu'ils n'ont plus à redécouvrir la structure fichier par fichier.
  3. Support natif des modèles locaux. Une commande — aider --model ollama/gemma4:26b — et c'est parti. Pas de variables d'environnement, pas de proxy, pas de surprise.

Ajoutez des commandes inline (/add, /drop, /tokens, /undo), la saisie vocale, les modes /ask vs /code et un historique persistant, et vous avez l'outil de programmation terminal avec la plus grande densité de fonctions du marché.

Ses faiblesses

Aider a une courbe d'apprentissage. Les slash-commands sont puissantes mais nombreuses, et les nouveaux utilisateurs se battent souvent avec l'« edit format » avant de trouver le bon pour leur modèle (diff pour les modèles forts, whole pour les plus faibles). Le TUI est dense — magnifique une fois compris, déroutant au début.

Sur Gemma 4 26B, nous avons parfois observé qu'Aider commite trop (une modification logique découpée en trois commits) lorsque le modèle produit des diffs fragmentés. Facile à corriger avec git rebase -i, mais bon à savoir.

Verdict

Choisissez Aider si vous codez tous les jours, vivez dans Git, et voulez un outil qui récompense l'investissement. Rien d'autre n'en approche sur un usage quotidien soutenu.

Analyse détaillée : Claude Code Router

Claude Code Router (CCR) est un proxy maintenu par la communauté qui s'intercale entre le Claude Code d'Anthropic et n'importe quel backend OpenAI-compatible, y compris un Gemma 4 servi par Ollama. Il traduit le format de messages d'Anthropic à la volée : Claude Code croit parler à Claude, pendant que votre modèle local répond réellement.

Ses points forts

Si vous êtes déjà un gros utilisateur de Claude Code (vous adorez le TUI, les blocs de pensée étendue, le planificateur multi-fichiers), CCR est la seule manière de conserver cette expérience avec un modèle local. Quand ça marche, vous obtenez l'UX excellente de Claude Code propulsée par Gemma 4, à environ « 60 % de la qualité du Claude Code d'origine » selon notre notation subjective.

CCR hérite aussi de la conscience du repository et du planificateur multi-fichiers de Claude Code, tous deux supérieurs à ceux de Codex CLI et comparables à Aider.

Ses faiblesses

CCR a trois vrais problèmes :

  1. Risque ToS. Utiliser Claude Code avec un backend non-Anthropic peut enfreindre les Conditions d'utilisation d'Anthropic. Pour qui passe par une revue juridique, ce n'est pas une préoccupation théorique.
  2. Fragilité. CCR est un proxy de traduction de format. Chaque fois qu'Anthropic met à jour le protocole interne de Claude Code, CCR peut casser. Nous avons subi deux de ces cassures en une seule semaine de tests.
  3. Installation lourde. Il faut trois processus simultanés : Ollama, CCR et Claude Code. Déboguer « pourquoi ça ne marche pas ? » signifie consulter trois logs.

Verdict

Ne choisissez CCR que si vous êtes un développeur individuel, hors contrainte de compliance, et que vous tenez vraiment à l'UX de Claude Code avec un modèle local. Sinon, Aider.

L'arbre de décision

Pas envie de lire 2 000 mots de plus ? Voici la synthèse.

Vous voulez un outil d'IA pour le terminal
├── Le code DOIT rester en local (vie privée, compliance, hors ligne)
│   ├── Besoin d'édition multi-fichiers + intégration Git → Aider
│   └── Envie d'un outil minimal « un prompt, une édition » → Codex CLI
├── À l'aise avec les APIs cloud
│   ├── Vous visez la meilleure qualité → Claude Code (original, API Claude)
│   └── Vous voulez de la flexibilité multi-fournisseurs → Aider + GPT-4o ou Sonnet
└── Déjà power user de Claude Code, curieux du local
    └── Essayez d'abord Aider + Gemma 4 pendant une semaine
        ├── Ça suffit → restez sur Aider
        └── L'UX de Claude Code vous manque → évaluez CCR, acceptez le risque ToS

Chaque branche mène à un résultat sensé. Si vous hésitez encore, choisissez Aider par défaut : c'est l'option qu'on regrette le moins.

Comparaison en situation réelle

La même tâche — « refactore handlers.py en async/await » — dans les trois outils.

# Codex CLI
export OPENAI_API_BASE=http://localhost:11434/v1
export OPENAI_API_KEY=ollama
codex --model gemma4:26b "refactore handlers.py en async/await"

# Aider
aider --model ollama/gemma4:26b handlers.py
> refactore ce fichier en async/await

# Claude Code Router
ollama serve &
ccr start --model gemma4:26b &
claude "refactore handlers.py en async/await"

Codex CLI fonctionne en mode « tire et oublie ». Aider ouvre un chat et committe le diff dans Git. CCR fournit le TUI complet de Claude Code mais nécessite trois processus.

Coût et matériel

Les trois outils se comportent identiquement en local une fois pointés sur Ollama. Sur Apple Silicon, Gemma 4 26B consomme 30–40 W en inférence active — environ 0,3 kWh pour une journée de huit heures, soit moins d'un euro par mois d'électricité avec les tarifs français courants. Si vous veniez d'une facture Claude API à 50 €/mois, la rentabilité se fait dès le premier mois. Voir notre guide matériel Gemma 4 pour les minimums.

FAQ

Q : Peut-on installer les trois outils sur la même machine ? R : Oui. Aider est un paquet Python, Codex CLI un paquet npm, Claude Code et CCR des installations séparées. Ils partagent le même backend Ollama, donc une seule copie de Gemma 4 sur le disque suffit.

Q : Gemma 4 26B suffit-il, ou faut-il 31B ? R : 26B gère très bien les tâches de code équivalentes GPT-3.5. 31B approche la qualité GPT-4 mais demande 24 Go+ de mémoire unifiée. Commencez par 26B — vous pourrez toujours monter.

Q : Quel outil prend en charge le mieux les langages peu courants ? R : Les trois sont agnostiques au niveau du modèle, mais la repo map basée tree-sitter d'Aider couvre 50+ langages avec une compréhension structurelle. Pour Rust, Haskell ou des langages moins répandus, Aider reste le choix le plus sûr.

Q : Claude Code Router est-il légal ? R : CCR lui-même est sous licence MIT et sa distribution est légale. Ce qui est flou, c'est si l'utiliser pour rediriger Claude Code vers un backend non-Anthropic viole les Conditions d'utilisation d'Anthropic. Anthropic ne s'est pas prononcé explicitement. En entreprise, consultez d'abord le service juridique.

Q : Et Continue, Tabby ou Cursor ? R : Continue est un plugin IDE, Tabby un Copilot auto-hébergé en autocomplétion, Cursor un fork d'IDE. Aucun ne concourt dans la catégorie « CLI pur terminal », raison pour laquelle cet article ne couvre que les trois qui le font.

Q : Quel outil produit les diffs les plus propres ? R : Aider, de loin, parce qu'il est conçu pour la génération de diff et ne bascule en réécriture complète que lorsque le modèle ne peut pas produire un patch propre.

Q : Peut-on changer d'outil en cours de projet ? R : Oui — les trois reposent sur des fichiers et Git, aucun ne vous enferme. Nous utilisons couramment Aider pour les refactors et Codex CLI pour les scripts ponctuels dans le même dépôt.

Articles liés

gemma4 — interact

Stop reading. Start building.

~/gemma4 $ Get hands-on with the models discussed in this guide. No deployment, no friction, 100% free playground.

Launch Playground />
Gemma 4 AI

Gemma 4 AI

Related Guides

Codex CLI vs Aider vs Claude Code Router 2026 : comparaison avec Gemma 4 | Blog