0% read

Aider + Gemma 4 : le duo open source pour la programmation en binôme IA en 2026

avr. 16, 2026

Aider + Gemma 4 : le duo open source pour la programmation en binôme IA en 2026

Vous avez sans doute déjà entendu parler de Codex CLI, Cursor ou Claude Code. Ces outils sont excellents, mais tous envoient votre code sur des serveurs tiers. Si vous cherchez un assistant de programmation IA entièrement open source, exécuté en local et intégré à Git, Aider reste en 2026 la solution la plus aboutie.

Problème : la configuration par défaut d'Aider pointe vers GPT-4 ou Claude. Résultat, une facture API mensuelle qui grimpe et du code qui fuit en permanence vers le cloud. La parade : faire tourner Gemma 4 en local via Ollama et demander à Aider de s'y connecter. Coût zéro, fuite zéro, tout dans le terminal.

Ce guide part d'un shell vide pour vous amener jusqu'à quatre scénarios réels : ajouter une fonctionnalité, réaliser une refactorisation multi-fichiers, corriger un test qui échoue et générer des tests unitaires — le tout avec Gemma 4 tournant sur votre propre matériel.

Qu'est-ce qu'Aider et en quoi se distingue-t-il de Codex CLI, Cursor et Claude Code ?

Aider est un outil de programmation IA en ligne de commande, open source et cumulant plus de 30 000 étoiles sur GitHub. Il est maintenu depuis 2023 par Paul Gauthier. Sa philosophie : la programmation en binôme avec une IA. Au lieu de simplement produire des extraits, Aider lit l'intégralité du dépôt, modifie les fichiers en place et crée automatiquement des commits Git avec un message généré.

Comparaison avec les alternatives les plus courantes :

CritèreAiderCodex CLICursorClaude Code
LicenceApache 2.0 (open source)PartielleFerméeFermée
Édition multi-fichiersNativeSurtout mono-fichierOuiOui
Commits Git autoInclus, messages générésNonNonNon
Repo mapAutomatiqueNonPartiellePartielle
Modèles locauxOllama / LiteLLM natifVariables d'env.Plugin requisNon supporté
CoûtCoût du modèle (local = 0)API à l'usage20 $/moisAPI à l'usage

La vraie force d'Aider, c'est le repo map : un index basé sur tree-sitter qui recense fichiers, classes, fonctions et dépendances puis alimente le modèle à chaque tour. Gemma 4 ne devine pas votre projet, il le voit.

Pour la version OpenAI du workflow, voyez notre guide Gemma 4 + Codex CLI.

Pré-requis

Avant de commencer, vérifiez :

  • Python 3.9+ (Aider est un projet Python)
  • Ollama installé et en cours d'exécution (ollama.com)
  • Gemma 4 26B ou 31B téléchargé via Ollama
  • Matériel : 16 Go de RAM minimum pour 26B, 24 Go pour 31B

Vous hésitez sur la variante ? Consultez notre panorama des meilleurs modèles d'IA locaux en 2026.

Étape 1 : installer Aider

Une seule commande pip :

pip install aider-chat

Vérification :

aider --version

Sur Mac ou Linux avec un environnement Python encombré, préférez pipx :

pipx install aider-chat

Étape 2 : lancer Ollama et confirmer Gemma 4

Démarrez le démon :

ollama serve

Dans un autre terminal :

ollama list

Vous devriez voir quelque chose comme :

NAME               ID           SIZE    MODIFIED
gemma4:26b-a4b     abc123...    15 GB   2 hours ago

Sinon, téléchargez le modèle :

ollama pull gemma4:26b-a4b

Étape 3 : connecter Aider à Gemma 4 en local

Aider parle Ollama nativement. Placez-vous dans votre dépôt git :

cd /chemin/vers/votre/projet
aider --model ollama/gemma4:26b-a4b

C'est tout. Aider détecte http://localhost:11434 et route chaque requête vers Gemma 4.

Pour éviter de retaper la bannière à chaque fois, créez un .aider.conf.yml à la racine du projet :

model: ollama/gemma4:26b-a4b

La commande aider suffira désormais.

Configuration avancée

Ollama distant ou sur un port non standard :

aider --model ollama/gemma4:26b-a4b --ollama-api-base http://192.168.1.100:11434

Un modèle « lourd » pour l'édition et un modèle « léger » pour les messages de commit :

aider --model ollama/gemma4:26b-a4b --weak-model ollama/gemma4:e4b

Étape 4 : quatre scénarios concrets

Scénario 1 : ajouter une fonctionnalité

Vous avez un projet Flask et souhaitez un endpoint d'inscription. Dans Aider :

> Dans app.py, ajoute un endpoint /register qui accepte un email et un mot de passe, les valide et enregistre l'utilisateur dans SQLite.

Aider va :

  1. Lire le repo map pour comprendre l'existant
  2. Modifier app.py (ou créer les fichiers nécessaires)
  3. Afficher un diff pour validation
  4. Après validation, exécuter git commit -m "feat: add /register endpoint with email/password validation"

Pas de copier-coller, tout se passe dans le dépôt.

Scénario 2 : refactorisation multi-fichiers

> Déplace toutes les opérations base de données de utils.py vers un nouveau module db.py et mets à jour les imports.

C'est ici qu'Aider prend tout son sens : il modifie utils.py, crée db.py et met à jour tous les fichiers qui importaient l'ancien chemin — le tout dans un commit unique. Codex CLI ne sait pas coordonner autant de fichiers simultanément.

Scénario 3 : corriger un test qui échoue

> Le test test_login_invalid_password dans test_auth.py échoue avec "AssertionError: 200 != 401". Corrige-le.

Aider lit le test et le code testé, localise le bug logique, corrige et relance le test pour valider.

Scénario 4 : générer des tests unitaires

> Écris des tests pytest pour toutes les fonctions publiques de db.py.

Aider crée test_db.py et produit des cas nominaux et aux limites pour chaque fonction.

Performances réelles de Gemma 4 dans Aider

Soyons honnêtes : Gemma 4 26B ne bat pas GPT-4 Turbo sur les benchmarks les plus exigeants. Mais pour le travail quotidien, il suffit largement.

Points forts :

  • Génération et édition dans un seul fichier
  • Petites refactorisations (2 à 3 fichiers)
  • Correction de bugs avec message d'erreur explicite
  • Génération de tests
  • Explication de code

Points faibles :

  • Refactorisations larges touchant 5 fichiers ou plus
  • Tâches liées aux conventions de frameworks (DRF ViewSets, concerns Rails, etc.)
  • Contextes très longs : annoncé en 128K, la qualité baisse en pratique après 32K

Stratégie recommandée : Gemma 4 26B au quotidien (gratuit et local), aider --model gpt-4o pour les cas compliqués. L'historique Git reste compatible entre les deux.

Dépannage

Erreur « Model not found »

Vérifiez qu'Ollama tourne (curl http://localhost:11434/v1/models) et que le nom correspond exactement à la sortie de ollama list. Aider exige le préfixe ollama/, par exemple ollama/gemma4:26b-a4b.

Réponses lentes

Gemma 4 26B fournit 20 à 40 tok/s sur un MacBook M1. Une longue génération peut prendre 30 à 60 secondes. Si c'est insupportable :

  • Vérifiez l'utilisation du GPU avec ollama ps
  • Essayez une quantisation plus agressive
  • Gardez E4B pour les petites tâches, 26B pour les complexes

Je ne veux pas de commits automatiques

aider --model ollama/gemma4:26b-a4b --no-auto-commits

Aider modifie les fichiers mais vous laisse la main sur le commit.

Sortie illisible

C'est généralement un souci de contexte. Utilisez /drop pour retirer des fichiers du chat et /tokens pour surveiller la consommation.

FAQ

Aider est-il gratuit ? Aider lui-même est totalement open source (Apache 2.0). Le coût dépend du modèle utilisé : avec Gemma 4 en local, c'est 0 €.

Aider versus Cursor ? Cursor est un éditeur graphique basé sur VS Code. Aider est un outil terminal pur. Les commits automatiques et le repo map sont propres à Aider. Les deux se combinent très bien sur un même dépôt.

Peut-on utiliser Gemma 4 E2B (4B) avec Aider ? Techniquement oui, mais la qualité du code produit est trop faible pour être utile. E4B (8B) pour des tâches simples, 26B pour un usage sérieux.

Fonctionne-t-il sous Windows ? Oui. Python, Ollama et Aider tournent sans problème sous Windows Terminal ou PowerShell.

Quels langages sont pris en charge ? Une cinquantaine : Python, TypeScript, Go, Rust, Java, C/C++, Ruby et bien d'autres, grâce à tree-sitter.

Gemma 4 ou Qwen 3 pour Aider ? Début 2026, la communauté penche pour Gemma 4 26B, plus stable côté suivi d'instructions ; Qwen 3 27B casse parfois le format de diff. Voir notre comparatif Gemma 4 vs Qwen 3.

Puis-je exécuter Aider + Gemma 4 sur un serveur distant ? Oui. Faites tourner Ollama sur un serveur GPU, connectez-vous en SSH, puis pointez --ollama-api-base vers l'IP du serveur.

gemma4 — interact

Stop reading. Start building.

~/gemma4 $ Get hands-on with the models discussed in this guide. No deployment, no friction, 100% free playground.

Launch Playground />
Gemma 4 AI

Gemma 4 AI

Related Guides

Aider + Gemma 4 : le duo open source pour la programmation en binôme IA en 2026 | Blog