Aider + Gemma 4 : le duo open source pour la programmation en binôme IA en 2026
Vous avez sans doute déjà entendu parler de Codex CLI, Cursor ou Claude Code. Ces outils sont excellents, mais tous envoient votre code sur des serveurs tiers. Si vous cherchez un assistant de programmation IA entièrement open source, exécuté en local et intégré à Git, Aider reste en 2026 la solution la plus aboutie.
Problème : la configuration par défaut d'Aider pointe vers GPT-4 ou Claude. Résultat, une facture API mensuelle qui grimpe et du code qui fuit en permanence vers le cloud. La parade : faire tourner Gemma 4 en local via Ollama et demander à Aider de s'y connecter. Coût zéro, fuite zéro, tout dans le terminal.
Ce guide part d'un shell vide pour vous amener jusqu'à quatre scénarios réels : ajouter une fonctionnalité, réaliser une refactorisation multi-fichiers, corriger un test qui échoue et générer des tests unitaires — le tout avec Gemma 4 tournant sur votre propre matériel.
Qu'est-ce qu'Aider et en quoi se distingue-t-il de Codex CLI, Cursor et Claude Code ?
Aider est un outil de programmation IA en ligne de commande, open source et cumulant plus de 30 000 étoiles sur GitHub. Il est maintenu depuis 2023 par Paul Gauthier. Sa philosophie : la programmation en binôme avec une IA. Au lieu de simplement produire des extraits, Aider lit l'intégralité du dépôt, modifie les fichiers en place et crée automatiquement des commits Git avec un message généré.
Comparaison avec les alternatives les plus courantes :
| Critère | Aider | Codex CLI | Cursor | Claude Code |
|---|---|---|---|---|
| Licence | Apache 2.0 (open source) | Partielle | Fermée | Fermée |
| Édition multi-fichiers | Native | Surtout mono-fichier | Oui | Oui |
| Commits Git auto | Inclus, messages générés | Non | Non | Non |
| Repo map | Automatique | Non | Partielle | Partielle |
| Modèles locaux | Ollama / LiteLLM natif | Variables d'env. | Plugin requis | Non supporté |
| Coût | Coût du modèle (local = 0) | API à l'usage | 20 $/mois | API à l'usage |
La vraie force d'Aider, c'est le repo map : un index basé sur tree-sitter qui recense fichiers, classes, fonctions et dépendances puis alimente le modèle à chaque tour. Gemma 4 ne devine pas votre projet, il le voit.
Pour la version OpenAI du workflow, voyez notre guide Gemma 4 + Codex CLI.
Pré-requis
Avant de commencer, vérifiez :
- Python 3.9+ (Aider est un projet Python)
- Ollama installé et en cours d'exécution (ollama.com)
- Gemma 4 26B ou 31B téléchargé via Ollama
- Matériel : 16 Go de RAM minimum pour 26B, 24 Go pour 31B
Vous hésitez sur la variante ? Consultez notre panorama des meilleurs modèles d'IA locaux en 2026.
Étape 1 : installer Aider
Une seule commande pip :
pip install aider-chatVérification :
aider --versionSur Mac ou Linux avec un environnement Python encombré, préférez pipx :
pipx install aider-chatÉtape 2 : lancer Ollama et confirmer Gemma 4
Démarrez le démon :
ollama serveDans un autre terminal :
ollama listVous devriez voir quelque chose comme :
NAME ID SIZE MODIFIED
gemma4:26b-a4b abc123... 15 GB 2 hours agoSinon, téléchargez le modèle :
ollama pull gemma4:26b-a4bÉtape 3 : connecter Aider à Gemma 4 en local
Aider parle Ollama nativement. Placez-vous dans votre dépôt git :
cd /chemin/vers/votre/projet
aider --model ollama/gemma4:26b-a4bC'est tout. Aider détecte http://localhost:11434 et route chaque requête vers Gemma 4.
Pour éviter de retaper la bannière à chaque fois, créez un .aider.conf.yml à la racine du projet :
model: ollama/gemma4:26b-a4bLa commande aider suffira désormais.
Configuration avancée
Ollama distant ou sur un port non standard :
aider --model ollama/gemma4:26b-a4b --ollama-api-base http://192.168.1.100:11434Un modèle « lourd » pour l'édition et un modèle « léger » pour les messages de commit :
aider --model ollama/gemma4:26b-a4b --weak-model ollama/gemma4:e4bÉtape 4 : quatre scénarios concrets
Scénario 1 : ajouter une fonctionnalité
Vous avez un projet Flask et souhaitez un endpoint d'inscription. Dans Aider :
> Dans app.py, ajoute un endpoint /register qui accepte un email et un mot de passe, les valide et enregistre l'utilisateur dans SQLite.Aider va :
- Lire le repo map pour comprendre l'existant
- Modifier
app.py(ou créer les fichiers nécessaires) - Afficher un diff pour validation
- Après validation, exécuter
git commit -m "feat: add /register endpoint with email/password validation"
Pas de copier-coller, tout se passe dans le dépôt.
Scénario 2 : refactorisation multi-fichiers
> Déplace toutes les opérations base de données de utils.py vers un nouveau module db.py et mets à jour les imports.C'est ici qu'Aider prend tout son sens : il modifie utils.py, crée db.py et met à jour tous les fichiers qui importaient l'ancien chemin — le tout dans un commit unique. Codex CLI ne sait pas coordonner autant de fichiers simultanément.
Scénario 3 : corriger un test qui échoue
> Le test test_login_invalid_password dans test_auth.py échoue avec "AssertionError: 200 != 401". Corrige-le.Aider lit le test et le code testé, localise le bug logique, corrige et relance le test pour valider.
Scénario 4 : générer des tests unitaires
> Écris des tests pytest pour toutes les fonctions publiques de db.py.Aider crée test_db.py et produit des cas nominaux et aux limites pour chaque fonction.
Performances réelles de Gemma 4 dans Aider
Soyons honnêtes : Gemma 4 26B ne bat pas GPT-4 Turbo sur les benchmarks les plus exigeants. Mais pour le travail quotidien, il suffit largement.
Points forts :
- Génération et édition dans un seul fichier
- Petites refactorisations (2 à 3 fichiers)
- Correction de bugs avec message d'erreur explicite
- Génération de tests
- Explication de code
Points faibles :
- Refactorisations larges touchant 5 fichiers ou plus
- Tâches liées aux conventions de frameworks (DRF ViewSets, concerns Rails, etc.)
- Contextes très longs : annoncé en 128K, la qualité baisse en pratique après 32K
Stratégie recommandée : Gemma 4 26B au quotidien (gratuit et local), aider --model gpt-4o pour les cas compliqués. L'historique Git reste compatible entre les deux.
Dépannage
Erreur « Model not found »
Vérifiez qu'Ollama tourne (curl http://localhost:11434/v1/models) et que le nom correspond exactement à la sortie de ollama list. Aider exige le préfixe ollama/, par exemple ollama/gemma4:26b-a4b.
Réponses lentes
Gemma 4 26B fournit 20 à 40 tok/s sur un MacBook M1. Une longue génération peut prendre 30 à 60 secondes. Si c'est insupportable :
- Vérifiez l'utilisation du GPU avec
ollama ps - Essayez une quantisation plus agressive
- Gardez E4B pour les petites tâches, 26B pour les complexes
Je ne veux pas de commits automatiques
aider --model ollama/gemma4:26b-a4b --no-auto-commitsAider modifie les fichiers mais vous laisse la main sur le commit.
Sortie illisible
C'est généralement un souci de contexte. Utilisez /drop pour retirer des fichiers du chat et /tokens pour surveiller la consommation.
FAQ
Aider est-il gratuit ? Aider lui-même est totalement open source (Apache 2.0). Le coût dépend du modèle utilisé : avec Gemma 4 en local, c'est 0 €.
Aider versus Cursor ? Cursor est un éditeur graphique basé sur VS Code. Aider est un outil terminal pur. Les commits automatiques et le repo map sont propres à Aider. Les deux se combinent très bien sur un même dépôt.
Peut-on utiliser Gemma 4 E2B (4B) avec Aider ? Techniquement oui, mais la qualité du code produit est trop faible pour être utile. E4B (8B) pour des tâches simples, 26B pour un usage sérieux.
Fonctionne-t-il sous Windows ? Oui. Python, Ollama et Aider tournent sans problème sous Windows Terminal ou PowerShell.
Quels langages sont pris en charge ? Une cinquantaine : Python, TypeScript, Go, Rust, Java, C/C++, Ruby et bien d'autres, grâce à tree-sitter.
Gemma 4 ou Qwen 3 pour Aider ? Début 2026, la communauté penche pour Gemma 4 26B, plus stable côté suivi d'instructions ; Qwen 3 27B casse parfois le format de diff. Voir notre comparatif Gemma 4 vs Qwen 3.
Puis-je exécuter Aider + Gemma 4 sur un serveur distant ?
Oui. Faites tourner Ollama sur un serveur GPU, connectez-vous en SSH, puis pointez --ollama-api-base vers l'IP du serveur.
Related Articles
- Guide Gemma 4 + Codex CLI — L'alternative côté OpenAI
- Gemma 4 vs Qwen 3 : comparatif complet — Bien choisir son modèle open source
- Les meilleurs modèles d'IA locaux en 2026 — Vue d'ensemble avant de trancher
Stop reading. Start building.
~/gemma4 $ Get hands-on with the models discussed in this guide. No deployment, no friction, 100% free playground.
Launch Playground />


