Gemma 4 的 10 个实用场景
Gemma 4 是一个强大的开源 AI 模型,但它到底能用来干什么?本文整理了 10 个真实的应用场景,每个场景都附带推荐的模型大小和你可以直接复制使用的示例 Prompt。
以下所有场景都可以通过 Ollama 在本地运行,无需 API 密钥,不依赖云端,数据完全不会离开你的设备。
1. 本地编程助手
推荐模型: Gemma 4 12B 或 27B
把 Gemma 4 变成你的私人编程助手,它能理解你的代码、提出改进建议、帮你写重复性代码。
示例 Prompt:
写一个 Python 函数,读取 CSV 文件,筛选出 "status" 列等于 "active" 的行,
返回字典列表。包含文件不存在和 CSV 格式错误的异常处理。核心优势: 跟云端助手不同,你的代码永远不会离开你的电脑。你可以放心地把整个项目文件通过 Ollama API 传给 Gemma 4,完全不用担心代码泄露给第三方。
# 在终端中把 Gemma 4 当编程助手用
cat myfile.py | ollama run gemma4:12b "审查这段代码并提出改进建议:"2. 文档分析
推荐模型: Gemma 4 12B
把合同、报告、研究论文或任何长文本丢给 Gemma 4,获取结构化摘要、关键要点或针对特定问题的回答。
示例 Prompt:
我要粘贴一份 10 页的合同。请你:
1. 用 5 个要点总结核心条款
2. 找出可能值得关注的异常条款
3. 列出所有提到的截止日期
4. 标记任何表述模糊、需要澄清的内容
[在此粘贴合同文本]为什么好用: Gemma 4 的 128K 上下文窗口可以一次性处理大量文档内容。12B 模型有足够的推理能力来理解法律和商业语言中的细微差别。
3. 语言翻译
推荐模型: Gemma 4 12B
Gemma 4 在主要语言之间提供出色的翻译质量,尤其当你提供关于语气和受众的上下文时效果更好。
示例 Prompt:
将以下英文营销文案翻译成自然、口语化的日语。目标受众是 30 多岁的科技行业
从业者。避免过于正式的表达,语气要友好但不失专业。
"Our new app helps you organize your work and life in one place.
No more switching between five different tools just to get through your day."技巧: 翻译时一定要说明目标受众、期望的语气和领域术语。笼统地说"翻译一下"只会得到笼统的翻译。
4. 图像理解
推荐模型: Gemma 4 12B 或 27B(多模态版本)
Gemma 4 的视觉能力让你可以分析图片、从截图中提取文字、描述图表、理解视觉内容——全部在本地完成。
示例(通过 API 调用):
import ollama
response = ollama.chat(
model="gemma4:12b",
messages=[{
"role": "user",
"content": "描述这张图片的内容,并提取图中可见的所有文字。",
"images": ["./screenshot.png"]
}]
)
print(response["message"]["content"])图像理解的具体应用:
- 从截图或文档照片中提取文字
- 为无障碍访问描述图表和数据可视化
- 分析 UI 设计稿并提出改进建议
- 识别照片中的物体和场景
5. 内容写作
推荐模型: Gemma 4 12B
从博客文章到产品描述再到社交媒体文案,Gemma 4 可以帮你起草初稿,然后你再用自己的风格和专业知识来润色。
示例 Prompt:
写一段 300 字的博客开头,介绍本地运行 AI 模型相比使用云端 API 的好处。
语气要务实、略带主观态度——不要企业腔或万金油式的表达。目标读者是对
本地 AI 好奇但还没尝试过的开发者。
避免 "在当今快速发展的时代" 这类套话。用一个具体的场景开头,不要抽象陈述。写作诀窍: 指令越具体,输出质量越高。告诉 Gemma 4 不要写什么,跟告诉它要写什么一样重要。
6. 从 PDF 中提取结构化数据
推荐模型: Gemma 4 12B(扫描版 PDF 可用视觉模型)
将非结构化的 PDF 内容转换为结构化数据。Gemma 4 可以从文档中提取表格、键值对和特定数据点。
示例 Prompt:
从这份发票中提取所有明细项,并格式化为 JSON:
[在此粘贴发票文本]
期望格式:
{
"invoice_number": "...",
"date": "...",
"items": [
{"description": "...", "quantity": 0, "unit_price": 0.00, "total": 0.00}
],
"subtotal": 0.00,
"tax": 0.00,
"total": 0.00
}处理扫描版 PDF 的技巧: 先用视觉模型从页面图片中提取文字,再处理提取出的文字来获取结构化数据。这种两步方法能应对大多数真实场景下的 PDF。
7. 客服聊天机器人
推荐模型: Gemma 4 2B (E2B) 追求速度,12B 追求质量
搭建一个私密、零成本的客服机器人,运行在你自己的基础设施上,客户数据永远不会发送到外部服务器。
示例系统 Prompt:
你是 TechCo 公司的客服助手,TechCo 是一家软件公司。
规则:
- 始终保持礼貌和专业
- 如果不知道答案,坦诚告知并建议联系 support@techco.com
- 绝不编造产品功能或价格
- 简单问题保持简洁回复(2-3 句话)
- 计费问题一律建议联系计费团队
产品信息:
- TechCo Pro:¥199/月,包含 5 个用户,100GB 存储
- TechCo Enterprise:¥699/月,无限用户,1TB 存储
- 免费试用:14 天,无需信用卡为什么本地运行很重要: 客户对话中经常包含敏感信息——姓名、账户信息、投诉内容。本地运行意味着零数据泄露风险。
8. 代码审查
推荐模型: Gemma 4 12B 或 27B
给你的代码多一双眼睛。Gemma 4 可以发现 bug、提出改进建议、识别安全漏洞、推荐更好的设计模式。
示例 Prompt:
审查以下 Python 代码,关注:
1. 潜在的 bug 或边界情况
2. 安全漏洞
3. 性能问题
4. 代码风格改进
5. 缺失的错误处理
请具体到行号,并解释每个问题的影响。
```python
def get_user_data(user_id):
conn = sqlite3.connect("users.db")
cursor = conn.cursor()
result = cursor.execute(f"SELECT * FROM users WHERE id = {user_id}")
data = result.fetchone()
return {"id": data[0], "name": data[1], "email": data[2]}
Gemma 4 能准确识别出 SQL 注入漏洞、缺少连接清理、对空结果缺少错误处理等问题,并建议使用参数化查询和上下文管理器。
---
## 9. 研究文献摘要
**推荐模型:** Gemma 4 12B 或 27B
将冗长的研究论文、技术文档或文章集合浓缩成可执行的摘要。
**示例 Prompt:**用以下三个部分总结这篇研究论文:
- 核心发现(2-3 句话):他们发现了什么?
- 研究方法(2-3 句话):他们是怎么验证的?
- 实际意义(2-3 句话):对我有什么用?
同时指出作者承认的研究局限性。
[在此粘贴论文文本]
**批量处理技巧:** 通过 Ollama API 批量处理多篇论文:
```python
import ollama
papers = ["paper1.txt", "paper2.txt", "paper3.txt"]
for paper_path in papers:
with open(paper_path) as f:
content = f.read()
response = ollama.chat(
model="gemma4:12b",
messages=[{
"role": "user",
"content": f"用 3 个要点总结这篇论文:\n\n{content}"
}]
)
print(f"\n--- {paper_path} ---")
print(response["message"]["content"])10. 隐私敏感应用
推荐模型: Gemma 4 12B(具体大小视任务而定)
与其说这是一个单独的场景,不如说是一整类应用——所有数据隐私不可妥协的任务。
典型应用:
- 医疗笔记处理 —— 整理患者病历,健康数据不出本地
- 法律文件审查 —— 分析包含商业机密的合同
- 财务分析 —— 处理公司内部财务报表和预测
- 人力资源工作流 —— 筛选简历、撰写职位描述、汇总员工反馈
- 个人日记和反思 —— 用 AI 帮你整理思绪,没有任何公司能看到你的内容
医疗笔记示例 Prompt:
将以下患者就诊记录整理为结构化格式:
- 主诉
- 主要发现
- 诊断
- 治疗方案
- 是否需要随访(是/否,何时)
摘要控制在 100 字以内,适当使用医学术语。
[在此粘贴病历]隐私优势是绝对的: 当你在本地运行 Gemma 4 时,你的数据在物理层面上就不可能到达外部服务器。没有服务条款需要担心,没有数据保留政策要阅读,没有第三方数据处理的合规风险。数据从你的硬盘到 GPU 再回来——仅此而已。
模型大小选择指南
快速参考表:
| 应用场景 | 2B (E2B) | 12B | 27B |
|---|---|---|---|
| 编程助手 | 基础可用 | 推荐 | 最佳 |
| 文档分析 | - | 推荐 | 最佳 |
| 语言翻译 | 基础可用 | 推荐 | 最佳 |
| 图像理解 | - | 推荐 | 最佳 |
| 内容写作 | 基础可用 | 推荐 | 最佳 |
| PDF 数据提取 | - | 推荐 | 良好 |
| 客服机器人 | 推荐(快) | 最佳(质量) | 没必要 |
| 代码审查 | - | 良好 | 推荐 |
| 研究摘要 | - | 良好 | 推荐 |
| 隐私应用 | 视任务而定 | 推荐 | 最佳 |
通用建议: 从 12B 开始。它能很好地处理 90% 的场景。需要更深度推理(复杂代码、细致分析)时升级到 27B,需要极致速度和低资源占用时降级到 2B。
开始使用
以上所有场景现在就可以通过 Ollama 使用:
ollama pull gemma4:12b
ollama run gemma4:12b选一个场景,试试示例 Prompt,然后根据你的实际工作流调整。了解 Gemma 4 能做什么的最好方式,就是开始用它。



