Aider 接上 Gemma 4:2026 最強開源 AI 結對程式設計本地安裝指南
你可能已經聽過 Codex CLI、Cursor、Claude Code 這些 AI 寫程式工具。但如果你想要一個完全開源、在本地執行,而且還能自動幫你 git commit 的 AI 結對程式設計助手,Aider 目前仍是最成熟的選擇。
問題來了——Aider 預設是接 GPT-4 或 Claude 這類雲端 API,月費不便宜,而且所有程式碼都得送到第三方伺服器。有沒有方法改接本地模型,既不花錢又不外洩?
有。把 Gemma 4 透過 Ollama 跑在本地,再讓 Aider 連上去,你就有一個完全免費、完全私密的 AI 寫程式搭檔。本篇指南會從零開始帶你把整套流程跑通,再搭配 4 個真實場景的實作演練。
Aider 是什麼?跟其他工具差在哪
Aider 是一款開源的終端機 AI 寫程式工具(GitHub 30,000+ stars),由 Paul Gauthier 從 2023 年持續維護。它的核心理念是 AI 結對程式設計——不只生成片段,而是讀懂整個儲存庫的上下文,直接在你的程式碼裡動刀,還會自動幫你開 git commit。
跟市面上其他工具比較:
| 特性 | Aider | Codex CLI | Cursor | Claude Code |
|---|---|---|---|---|
| 授權 | Apache 2.0 完全開源 | 部分開源 | 閉源 | 閉源 |
| 多檔案編輯 | 原生支援 | 以單檔為主 | 支援 | 支援 |
| Git 自動提交 | 內建,自動產生訊息 | 無 | 無 | 無 |
| Repo Map | 自動建立 | 無 | 部分 | 部分 |
| 本地模型 | 原生支援 Ollama / LiteLLM | 需設環境變數 | 需外掛 | 不支援 |
| 費用 | 模型費用(本地=零) | API 計費 | 每月 $20 訂閱 | API 計費 |
Aider 最厲害的地方是 Repo Map——它會自動用 tree-sitter 分析整個儲存庫的結構(檔案、類別、函式、相依關係),並在每一輪對話時把相關內容餵給模型。也就是說 Gemma 4 不是盲猜,而是真的「看懂」你的專案。
如果你想改看 OpenAI 那一路的做法,可參考 Gemma 4 接上 Codex CLI 指南。
事前準備
開始之前請確認:
- Python 3.9 以上(Aider 是 Python 專案)
- Ollama 已安裝並啟動(ollama.com)
- Gemma 4 26B 或 31B 已透過 Ollama 下載
- 硬體:26B 至少 16GB 記憶體,31B 至少 24GB
不確定該選哪一款?請看 2026 年本地 AI 模型挑選指南。
步驟 1:安裝 Aider
一行 pip 指令就完成:
pip install aider-chat驗證:
aider --version若你是 Mac / Linux 且 Python 環境很亂,建議用 pipx 獨立安裝:
pipx install aider-chat步驟 2:啟動 Ollama 並確認 Gemma 4
先把服務跑起來:
ollama serve另開一個終端機確認模型:
ollama list應該會看到類似輸出:
NAME ID SIZE MODIFIED
gemma4:26b-a4b abc123... 15 GB 2 hours ago沒有就先拉:
ollama pull gemma4:26b-a4b步驟 3:讓 Aider 連上本地 Gemma 4
Aider 原生就支援 Ollama。進到你的專案資料夾:
cd /path/to/your/project
aider --model ollama/gemma4:26b-a4b就這樣。Aider 會自動連到 http://localhost:11434,把所有請求都送給 Gemma 4。
若不想每次重打參數,可以在專案根目錄新增 .aider.conf.yml:
model: ollama/gemma4:26b-a4b之後單純輸入 aider 就會自動用 Gemma 4。
進階設定
Ollama 跑在遠端機器或非預設埠:
aider --model ollama/gemma4:26b-a4b --ollama-api-base http://192.168.1.100:11434用「主模型」處理編輯、「輕量模型」產生 commit 訊息,省資源:
aider --model ollama/gemma4:26b-a4b --weak-model ollama/gemma4:e4b步驟 4:四個實戰情境
情境 1:新增功能
你有一個 Flask 專案,想加一個使用者註冊端點。在 Aider 輸入:
> 在 app.py 新增一個 /register 端點,接收 email 與 password,做基本驗證後寫入 SQLite。Aider 會:
- 讀取 Repo Map 了解現有結構
- 修改
app.py(必要時會自動建立新檔) - 顯示 diff 讓你確認
- 確認後自動執行
git commit -m "feat: add /register endpoint with email/password validation"
你完全不用複製貼上程式碼。
情境 2:跨檔案重構
> 把 utils.py 裡的資料庫操作抽到新檔案 db.py,並更新所有 import。這正是 Aider 的強項。它會同步修改 utils.py、新增 db.py、更新所有引用舊路徑的檔案——然後一次 commit。Codex CLI 做不到這種跨檔案連動。
情境 3:修 Bug
> test_auth.py 的 test_login_invalid_password 失敗,錯誤訊息是 "AssertionError: 200 != 401",請幫我修。Aider 會同時讀測試與被測程式,抓出邏輯錯誤,修完後再跑一次測試確認綠燈。
情境 4:補單元測試
> 幫 db.py 所有公開函式寫 pytest 單元測試。Aider 會自動新建 test_db.py,為每個函式寫出正常路徑與邊界案例。
Gemma 4 在 Aider 的實際表現
老實說,Gemma 4 26B 在 Aider 中的表現不及 GPT-4 Turbo 或 Claude 3.5——但日常開發綽綽有餘。
擅長:
- 單檔內的程式碼生成與修改
- 小規模跨檔案重構(2–3 個檔案)
- 錯誤訊息明確的 Bug 修復
- 產出測試程式
- 解釋程式邏輯
略吃力:
- 動輒 5 個以上檔案的架構改造
- 需要深入熟悉框架慣例的任務(DRF ViewSet 等)
- 超長上下文(Gemma 4 26B 雖標榜 128K,實務上過了 32K 品質就下滑)
建議策略:日常用 Gemma 4 26B(免費又快),遇到硬骨頭再切 aider --model gpt-4o。Git 歷史彼此相容,混用沒問題。
常見問題排查
Aider 報 "Model not found"
先確認 Ollama 有啟動(curl http://localhost:11434/v1/models),再確認模型名稱與 ollama list 完全一致。Aider 需要加 ollama/ 前綴,例如 ollama/gemma4:26b-a4b。
回應太慢
Gemma 4 26B 在 MacBook M1 約 20–40 tok/s,長段生成會吃 30–60 秒。若真的慢到受不了:
- 用
ollama ps確認是否跑 GPU - 換更激進的量化版本
- 日常改用 E4B,複雜任務再切 26B
不想自動 commit
aider --model ollama/gemma4:26b-a4b --no-auto-commitsAider 只修改檔案,commit 由你決定何時下。
輸出亂碼或答非所問
多半是上下文不足。用 /drop 把不相關的檔案移除,用 /tokens 看目前占用量。
常見問題(FAQ)
Q:Aider 免費嗎? A:Aider 本體完全免費(Apache 2.0)。費用取決於你用哪個模型——接本地 Gemma 4 等於零成本。
Q:Aider 跟 Cursor 怎麼選? A:Cursor 是 VS Code 為底的 GUI 編輯器,適合偏好視覺化的人;Aider 是純終端工具,適合習慣命令列的開發者。自動 commit 與 Repo Map 是 Cursor 沒有的。兩者可在同一個專案混用。
Q:Gemma 4 E2B(4B)能跑 Aider 嗎? A:技術上可以,但 4B 的產出品質太差,實務上不堪用。建議最低 E4B(8B)處理簡單任務,正式開發請從 26B 起跳。
Q:Windows 可以用嗎? A:可以。Python、Ollama、Aider 都支援 Windows Terminal 或 PowerShell。
Q:Aider 支援哪些程式語言? A:幾乎通吃。Aider 用 tree-sitter 建 Repo Map,支援 Python、JavaScript/TypeScript、Go、Rust、Java、C/C++、Ruby 等 50+ 種語言。
Q:Gemma 4 跟 Qwen 3 在 Aider 哪個好? A:2026 年初社群普遍反映 Gemma 4 26B 在指令遵循上較穩,Qwen 3 27B 偶爾會破壞 Aider 的 diff 格式。詳見 Gemma 4 vs Qwen 3 全面比較。
Q:可以在遠端伺服器跑嗎?
A:可以。在 GPU 伺服器上跑 Ollama,本地用 SSH 連上後執行 Aider,再把 --ollama-api-base 指到伺服器 IP 即可。
Related Articles
- Gemma 4 接上 Codex CLI 指南 — OpenAI 路線的另一種方案
- Gemma 4 vs Qwen 3 全面比較 — 開源模型怎麼選
- 2026 本地 AI 模型挑選指南 — 先看全局再動手
Stop reading. Start building.
~/gemma4 $ Get hands-on with the models discussed in this guide. No deployment, no friction, 100% free playground.
Launch Playground />


