Menjalankan Gemma 4 secara lokal berarti datamu tidak pernah meninggalkan komputermu. Tanpa biaya API, tanpa rate limit, privasi total. Panduan ini menunjukkan cara menjalankan Gemma 4 dalam waktu kurang dari 5 menit menggunakan Ollama.
Yang Kamu Butuhkan
- Komputer dengan minimal RAM 8GB (16GB direkomendasikan untuk model lebih besar)
- macOS, Windows, atau Linux
- Sekitar 2-5GB ruang disk kosong (tergantung ukuran model)
Langkah 1: Instal Ollama
Kunjungi ollama.com dan download installer untuk sistem operasimu.
macOS:
# Atau instal via Homebrew
brew install ollamaLinux:
curl -fsSL https://ollama.com/install.sh | shWindows: Download installer dari ollama.com/download.
Langkah 2: Jalankan Gemma 4
Setelah Ollama terinstal, menjalankan Gemma 4 cuma butuh satu perintah:
ollama run gemma4Itu saja. Ollama akan otomatis mendownload model dan memulai sesi chat interaktif. Untuk metode download lain (Hugging Face, LM Studio, Kaggle), lihat panduan download lengkap kami.
Memilih Ukuran Model yang Tepat
Gemma 4 hadir dalam empat ukuran. Begini cara memilih:
| Model | Parameter | RAM Dibutuhkan | Cocok Untuk | Perintah |
|---|---|---|---|---|
| E2B | 2B | ~4GB | Mobile, tugas cepat | ollama run gemma4:e2b |
| E4B | 4B | ~6GB | Laptop, penggunaan harian | ollama run gemma4:e4b |
| 26B MoE | 26B | ~16GB | Efisiensi terbaik | ollama run gemma4:26b |
| 31B Dense | 31B | ~20GB | Kualitas maksimum | ollama run gemma4:31b |
Rekomendasi: Mulai dengan E4B kalau kamu punya laptop modern. Ini menawarkan keseimbangan terbaik antara kecepatan dan kualitas. Tidak yakin ukuran mana yang cocok? Baca panduan perbandingan model detail kami.
Langkah 3: Gunakan Gemma 4 untuk Berbagai Tugas
Chat Teks
ollama run gemma4
>>> Jelaskan tentang quantum computing dengan bahasa sederhanaPembuatan Kode
ollama run gemma4
>>> Tulis fungsi Python untuk mengurutkan list dictionary berdasarkan keyPemahaman Gambar (Multimodal)
Gemma 4 bisa menganalisis gambar:
ollama run gemma4
>>> Deskripsikan gambar ini: /path/to/image.jpgMenggunakan API
Ollama juga menyediakan API lokal di http://localhost:11434:
curl http://localhost:11434/api/generate -d '{
"model": "gemma4",
"prompt": "Apa itu machine learning?"
}'Tips Performa
- Tutup aplikasi lain — bebaskan RAM untuk model
- Gunakan model terkuantisasi — Ollama menyajikan versi terkuantisasi secara default, yang jauh lebih cepat
- Akselerasi GPU — kalau punya GPU NVIDIA, Ollama akan menggunakannya secara otomatis
- Atur panjang konteks — untuk percakapan lebih panjang, set
/set parameter num_ctx 8192
Gemma 4 vs API Cloud
| Fitur | Gemma 4 Lokal (Ollama) | API Cloud (ChatGPT, Gemini) |
|---|---|---|
| Biaya | Gratis selamanya | Bayar per token |
| Privasi | 100% lokal | Data dikirim ke server |
| Kecepatan | Tergantung hardware | Biasanya lebih cepat |
| Internet | Tidak perlu | Wajib |
| Rate Limit | Tidak ada | Ada |
| Kustomisasi | Kontrol penuh | Terbatas |
Troubleshooting
"Not enough memory" — Coba model lebih kecil: ollama run gemma4:e2b
Respons lambat — Pastikan tidak ada aplikasi berat lain yang berjalan. Cek apakah GPU dipakai: ollama ps
Model not found — Update Ollama: ollama update, lalu coba lagi.
Untuk solusi lebih detail, cek panduan troubleshooting Gemma 4 kami.
Langkah Selanjutnya
- Bandingkan model Gemma 4 secara detail di halaman Model kami
- Coba LM Studio untuk antarmuka grafis
- Jelajahi Google AI Studio untuk akses berbasis cloud
Gemma 4 dikembangkan oleh Google DeepMind dan dirilis di bawah lisensi Apache 2.0. Panduan ini disediakan oleh komunitas Gemma 4 AI.



