Como ejecutar Gemma 4 localmente con Ollama: Guia completa (2026)

abr. 6, 2026
|Updated: abr. 7, 2026

Ejecutar Gemma 4 localmente significa que tus datos nunca salen de tu maquina. Sin costes de API, sin limites de uso, privacidad total. Esta guia te muestra como poner Gemma 4 en marcha en menos de 5 minutos usando Ollama.

Lo que necesitas

  • Un ordenador con al menos 8GB de RAM (16GB recomendados para modelos mas grandes)
  • macOS, Windows o Linux
  • Unos 2-5GB de espacio libre en disco (dependiendo del tamano del modelo)

Paso 1: Instalar Ollama

Visita ollama.com y descarga el instalador para tu sistema operativo.

macOS:

# O instala via Homebrew
brew install ollama

Linux:

curl -fsSL https://ollama.com/install.sh | sh

Windows: Descarga el instalador desde ollama.com/download.

Paso 2: Ejecutar Gemma 4

Una vez instalado Ollama, ejecutar Gemma 4 es literalmente un comando:

ollama run gemma4

Eso es todo. Ollama descargara automaticamente el modelo e iniciara una sesion de chat interactiva. Para otros metodos de descarga (Hugging Face, LM Studio, Kaggle), consulta nuestra guia completa de descarga.

Elegir el tamano de modelo correcto

Gemma 4 viene en cuatro tamanos. Asi puedes elegir:

ModeloParametrosRAM necesariaIdeal paraComando
E2B2B~4GBMovil, tareas rapidasollama run gemma4:e2b
E4B4B~6GBPortatiles, uso diarioollama run gemma4:e4b
26B MoE26B~16GBMejor eficienciaollama run gemma4:26b
31B Dense31B~20GBCalidad maximaollama run gemma4:31b

Recomendacion: Empieza con E4B si tienes un portatil moderno. Ofrece el mejor equilibrio entre velocidad y calidad. ¿No sabes que tamano se adapta a tu caso de uso? Lee nuestra guia detallada de comparacion de modelos.

Paso 3: Usar Gemma 4 para diferentes tareas

Chat de texto

ollama run gemma4
>>> Explicame la computacion cuantica en terminos simples

Generacion de codigo

ollama run gemma4
>>> Escribe una funcion en Python para ordenar una lista de diccionarios por una clave

Comprension de imagenes (multimodal)

Gemma 4 puede analizar imagenes:

ollama run gemma4
>>> Describe this image: /path/to/image.jpg

Usando la API

Ollama tambien proporciona una API local en http://localhost:11434:

curl http://localhost:11434/api/generate -d '{
  "model": "gemma4",
  "prompt": "What is machine learning?"
}'

Consejos de rendimiento

  1. Cierra otras aplicaciones — libera RAM para el modelo
  2. Usa modelos cuantizados — Ollama sirve versiones cuantizadas por defecto, que son mucho mas rapidas
  3. Aceleracion por GPU — si tienes una GPU NVIDIA, Ollama la usara automaticamente
  4. Ajusta la longitud de contexto — para conversaciones mas largas, configura /set parameter num_ctx 8192

Gemma 4 vs APIs en la nube

CaracteristicaGemma 4 Local (Ollama)API en la nube (ChatGPT, Gemini)
CosteGratis para siemprePago por token
Privacidad100% localDatos enviados al servidor
VelocidadDepende del hardwareGeneralmente mas rapido
InternetNo necesarioNecesario
Limites de usoNingunoSi
PersonalizacionControl totalLimitada

Solucion de problemas

"Not enough memory" — Prueba un modelo mas pequeno: ollama run gemma4:e2b

Respuesta lenta — Asegurate de que no hay otras apps pesadas ejecutandose. Verifica si se esta usando la GPU: ollama ps

Modelo no encontrado — Actualiza Ollama: ollama update, luego intentalo de nuevo.

Para soluciones mas detalladas a estos y otros problemas, consulta nuestra guia de solucion de problemas de Gemma 4.

Siguientes pasos


Gemma 4 esta desarrollado por Google DeepMind y publicado bajo la licencia Apache 2.0. Esta guia es proporcionada por la comunidad de Gemma 4 AI.

Gemma 4 AI

Gemma 4 AI

Related Guides

Como ejecutar Gemma 4 localmente con Ollama: Guia completa (2026) | Blog