0% read

Codex CLI vs Aider vs Claude Code Router 2026: Comparación con Gemma 4

abr. 16, 2026

Codex CLI vs Aider vs Claude Code Router 2026: Comparación con Gemma 4

Las herramientas de programación con IA centradas en la terminal estallaron en 2026. Ya no hace falta un plugin del IDE ni una pestaña del navegador: un único comando permite que un modelo escriba, refactorice y depure código directamente en tu shell. Pero tres nombres dominan los hilos de Reddit, las portadas de HN y el trending de GitHub: Codex CLI, Aider y Claude Code Router (CCR).

Todas parecen similares a primera vista. Todas prometen "pair programming con IA desde la terminal". Todas pueden apuntar a un backend local de Gemma 4 26B o 31B servido por Ollama. Pero en cuanto intentas decidir cuál instalar, una niebla de opiniones te cae encima.

Ejecutamos las tres herramientas en paralelo durante dos semanas de trabajo real, en el mismo hardware (MacBook M3 Max, 64 GB de RAM, Gemma 4 26B servido por Ollama). Este artículo destila el veredicto: una matriz completa de comparación, un análisis profundo de cada herramienta, un árbol de decisión y una sección de preguntas frecuentes que debería resolver el 90 % de las dudas antes de abrir una nueva pestaña de terminal.

Si solo vas a leer una frase: Aider gana para la mayoría de desarrolladores en solitario, Codex CLI gana por su flujo OpenAI-compatible limpio, y Claude Code Router es un puente para usuarios avanzados con un riesgo no trivial de ToS. El resto del artículo explica por qué.

Vista general: tabla comparativa

La siguiente tabla es la que nos habría gustado encontrar al empezar. Cada fila refleja comportamiento observado, no copy de marketing.

DimensiónCodex CLIAiderClaude Code Router
ProveedorOpenAI (oficial)Paul Gauthier (comunidad, Apache 2.0)Proyecto comunitario (proxy de Claude Code)
LicenciaParcialmente open sourceApache 2.0 (totalmente open source)MIT, pero depende del Claude Code cerrado
Soporte nativo de modelos localesVía variables de entorno OpenAI-compatibleSí, de primera clase (Ollama, LiteLLM)No, requiere traducción por proxy
Tiempo de configuración (primera vez)10–15 min5–10 min30–60 min
Auto-commit de GitNoSí, con mensajes generadosNo
Mapa de repositorio / conciencia del proyectoNoSí, basado en tree-sitterHeredado de Claude Code
Edición multi-archivoLigera (enfoque en un solo archivo)FuerteFuerte
Pensamiento extendido / modo razonamientoParcialNoSí (con la API real de Claude)
Cobertura de lenguajesTodos (según el LLM)50+ vía tree-sitterTodos
Actividad comunitariaCrece rápido (novedad 2026)30K+ estrellas GitHub, commits diariosNicho pero activo
Riesgo de ToS con modelos localesNingunoNingunoSí — posible infracción del ToS de Anthropic
Mejor paraTareas puntualesProgramación diaria, refactors, trabajo en solitarioFans de Claude Code que necesitan ir en local

Tres conclusiones de la tabla:

  1. Aider es la única opción totalmente open source con soporte nativo de primera clase para modelos locales. Las demás son parcialmente cerradas o dependen de un producto cerrado.
  2. Claude Code Router es la única herramienta con ambigüedad legal. Si trabajas en una empresa con revisión jurídica, deja de leer y ve a instalar Aider.
  3. Codex CLI encuentra un punto dulce de sencillez: habla el protocolo OpenAI-compatible nativamente, así que apuntarlo a Ollama requiere tres variables de entorno.

Análisis detallado: Codex CLI

OpenAI lanzó Codex CLI en abril de 2026 como un contrapunto minimalista y nativo de terminal al modo de programación de ChatGPT. Piénsalo como curl para la generación de código: escribes un prompt, produce o edita un archivo, sigues adelante.

Qué lo hace brillar

El mayor punto fuerte de Codex CLI es la limpieza del protocolo. Usa el formato OpenAI Chat Completions sin modificaciones, lo que significa que cualquier endpoint OpenAI-compatible (Ollama, vLLM, LM Studio, Groq, Together) funciona desde el primer momento. Para ejecutarlo contra Gemma 4 servido por Ollama:

export OPENAI_API_BASE=http://localhost:11434/v1
export OPENAI_API_KEY=ollama
export CODEX_MODEL=gemma4:26b
codex "añade un decorador de reintentos a fetch_user en api.py"

Tres export, sin proxies, sin capa de traducción. La salida es determinista y, como no hay conversión de formato en medio, el uso de herramientas y la salida estructurada se comportan exactamente como Gemma 4 los emite de forma nativa.

Dónde falla

Codex CLI es deliberadamente minimalista. No hay mapa del repositorio, así que cuando tu proyecto supera uno o dos archivos el modelo pierde contexto rápidamente. No hay auto-commit, así que el control de versiones corre por tu cuenta. La edición multi-archivo funciona, pero el modelo necesita recibir cada archivo explícitamente: no hay búsqueda automática de relevancia.

En nuestras dos semanas de prueba, Codex CLI destacó en tareas tipo "escríbeme esta función" y "explícame este archivo", y quedó mediocre en "refactoriza la capa de auth en seis archivos". Si tu modelo mental es la filosofía Unix (haz una cosa y hazla bien), Codex CLI es una delicia. Si esperas un agente, querrás Aider.

Veredicto

Elige Codex CLI si quieres una herramienta limpia, sin magia, que se empareja sin fricción con cualquier modelo local y se quita de en medio.

Análisis detallado: Aider

Aider lleva construyéndose en abierto desde 2023, y en 2026 es el estándar open source de facto para la programación con IA en terminal. Más de 30 000 estrellas en GitHub, un Discord activo y un mantenedor (Paul Gauthier) que despacha cambios a diario.

Qué lo hace brillar

Aider combina tres características que ningún competidor reúne a la vez:

  1. Auto-commit de Git. Cada edición de la IA queda commiteada con un mensaje generado. ¿No te gusta el cambio? git revert y seguimos. Esta función sola cambia la libertad con la que experimentas.
  2. Mapa del repositorio. Aider parsea tu proyecto con tree-sitter, extrae firmas de clases y funciones, y envía un esquema condensado al modelo. Modelos locales como Gemma 4 26B ganan puntos de contexto porque no tienen que redescubrir la estructura archivo por archivo.
  3. Soporte nativo de modelos locales. Un solo comando —aider --model ollama/gemma4:26b— y estás en marcha. Sin variables de entorno, sin proxies, sin sorpresas.

Añade comandos inline (/add, /drop, /tokens, /undo), entrada por voz, los modos /ask vs /code y un historial persistente, y tienes la herramienta de programación en terminal con mayor densidad de funciones del mercado.

Dónde falla

Aider tiene curva de aprendizaje. Los slash commands son potentes pero numerosos, y los usuarios nuevos suelen pelearse con el "edit format" hasta dar con el adecuado para su modelo (diff para modelos potentes, whole para los más débiles). El TUI es denso: hermoso cuando encaja, desconcertante al principio.

En Gemma 4 26B observamos puntualmente que Aider comete de más (un cambio lógico dividido en tres commits) cuando el modelo produce diffs fragmentados. Fácil de arreglar con git rebase -i, pero conviene saberlo.

Veredicto

Elige Aider si programas a diario, vives en Git y quieres una herramienta que recompense la inversión. Nada más se le acerca en uso sostenido.

Análisis detallado: Claude Code Router

Claude Code Router (CCR) es un proxy mantenido por la comunidad que se coloca entre el Claude Code de Anthropic y cualquier backend OpenAI-compatible, incluyendo Gemma 4 servido por Ollama. Traduce el formato de mensajes de Anthropic al vuelo: Claude Code cree que habla con Claude mientras tu modelo local responde de verdad.

Qué lo hace brillar

Si ya eres un usuario intensivo de Claude Code (te encantan el TUI, los bloques de pensamiento extendido, el flujo de planificación multi-archivo), CCR es la única manera de conservar esa experiencia con un modelo local. Cuando funciona, obtienes la UX excelente de Claude Code impulsada por Gemma 4, aproximadamente al "60 % de la calidad original de Claude Code" en nuestra puntuación subjetiva.

CCR también hereda la conciencia del repositorio y el planificador multi-archivo de Claude Code, ambos superiores a los de Codex CLI y comparables con los de Aider.

Dónde falla

CCR tiene tres problemas reales:

  1. Riesgo de ToS. Usar Claude Code con un backend no-Anthropic puede violar los Términos de Servicio de Anthropic. No es una preocupación teórica para quien trabaja bajo revisión jurídica corporativa.
  2. Fragilidad. CCR es un proxy de traducción de formato. Cada vez que Anthropic actualiza el protocolo interno de Claude Code, CCR puede romperse. Encontramos dos de esas rupturas en una sola semana de pruebas.
  3. Configuración pesada. Necesitas tres procesos corriendo simultáneamente: Ollama, CCR y Claude Code. Depurar "¿por qué no funciona?" significa revisar tres logs.

Veredicto

Elige CCR solo si eres un desarrollador individual, no trabajas con restricciones de compliance y específicamente quieres la UX de Claude Code con modelos locales. Para todos los demás, usa Aider.

El árbol de decisión

¿No quieres leer 2 000 palabras más? Usa esto.

Quieres una herramienta de IA para la terminal
├── El código DEBE permanecer local (privacidad, compliance, red aislada)
│   ├── Necesitas edición multi-archivo + integración Git → Aider
│   └── Quieres una herramienta minimalista "un prompt, una edición" → Codex CLI
├── Estás cómodo usando APIs en la nube
│   ├── Buscas la mejor calidad disponible → Claude Code (original, con API de Claude)
│   └── Quieres flexibilidad entre proveedores → Aider + GPT-4o o Sonnet
└── Ya eres power user de Claude Code y sientes curiosidad por lo local
    └── Prueba Aider + Gemma 4 durante una semana primero
        ├── Si es suficiente → quédate en Aider
        └── Si echas de menos la UX de Claude Code → evalúa CCR y asume el riesgo de ToS

Cada camino del árbol lleva a un resultado sensato. Si sigues dudando tras leerlo, elige Aider por defecto: es la opción más difícil de lamentar.

Comparación de comandos en un caso real

La misma tarea —"refactoriza handlers.py para usar async/await"— en las tres herramientas.

# Codex CLI
export OPENAI_API_BASE=http://localhost:11434/v1
export OPENAI_API_KEY=ollama
codex --model gemma4:26b "refactoriza handlers.py para usar async/await"

# Aider
aider --model ollama/gemma4:26b handlers.py
> refactoriza este archivo para usar async/await

# Claude Code Router
ollama serve &
ccr start --model gemma4:26b &
claude "refactoriza handlers.py para usar async/await"

Codex CLI es de "dispara y olvida". Aider abre un chat y commitea el diff a Git. CCR te da el TUI completo de Claude Code pero necesita tres procesos corriendo.

Coste y hardware

Las tres herramientas funcionan igual en hardware local cuando apuntan a Ollama. En Apple Silicon, Gemma 4 26B consume 30–40 W durante la inferencia activa: unos 0,3 kWh por una jornada de ocho horas, lo que supone menos de un euro al mes de electricidad para la mayoría de tarifas españolas. Si vienes de gastar 50 € al mes en Claude API, la amortización es prácticamente el primer mes. Consulta nuestra guía de hardware para Gemma 4 para los mínimos.

Preguntas frecuentes

P: ¿Puedo instalar las tres herramientas en la misma máquina? R: Sí. Aider es un paquete de Python, Codex CLI es un paquete de npm y Claude Code más CCR se instalan aparte. Comparten el mismo backend de Ollama, así que solo necesitas una copia de Gemma 4 en disco.

P: ¿Gemma 4 26B basta o necesito 31B? R: 26B maneja bien tareas de programación equivalentes a GPT-3.5. 31B se acerca a la calidad de GPT-4 pero requiere 24 GB+ de memoria unificada. Empieza con 26B: siempre puedes subir luego.

P: ¿Qué herramienta tiene mejor soporte multi-lenguaje? R: Las tres son agnósticas al lenguaje en la capa del modelo, pero el mapa de repositorio basado en tree-sitter de Aider le da comprensión estructural en 50+ lenguajes. Para Rust, Haskell o lenguajes menos comunes, Aider es la apuesta más segura.

P: ¿Es legal Claude Code Router? R: CCR en sí está bajo licencia MIT y es legal distribuirlo. Lo incierto es si usarlo para dirigir Claude Code a un backend no-Anthropic viola los Términos de Servicio de Anthropic. Anthropic no se ha pronunciado explícitamente. Si trabajas en una empresa, consulta a legal primero.

P: ¿Y Continue, Tabby o Cursor? R: Continue es un plugin de IDE, Tabby es un autocompletado estilo Copilot autoalojado y Cursor es un fork de IDE. Ninguno compite en la categoría "CLI pura de terminal", por eso este artículo solo cubre las tres que sí lo hacen.

P: ¿Qué herramienta genera los diffs más limpios? R: Aider, con mucha diferencia, porque está diseñada específicamente para generar diffs y solo recurre a la reescritura de archivo completo cuando el modelo no puede producir un parche limpio.

P: ¿Puedo cambiar de herramienta a mitad de proyecto? R: Sí: las tres se basan en archivos y Git, no hay bloqueo de proveedor. Nosotros usamos Aider para refactors y Codex CLI para scripts puntuales en el mismo repositorio.

Artículos relacionados

gemma4 — interact

Stop reading. Start building.

~/gemma4 $ Get hands-on with the models discussed in this guide. No deployment, no friction, 100% free playground.

Launch Playground />
Gemma 4 AI

Gemma 4 AI

Related Guides

Codex CLI vs Aider vs Claude Code Router 2026: Comparación con Gemma 4 | Blog