## Google Gemma 4 全面开源：手机、树莓派可离线运行，小模型性能直追大模型
Google 刚刚发布了四款 Gemma 4 系列模型，并宣布全面支持 Apache 2.0 开源协议。此举标志着其小模型策略的重大转向，从过去“开放但受限”的 Gemma 系列，迈向了真正的“开源”，让开发者能够自由下载、本地运行、修改和再分发。其中，最小的 E2B/E4B 版本专为手机和物联网设备设计，甚至可以在树莓派上完全离线运行，实现了“以小小小小胜大”的部署理念。

此次发布的四个尺寸模型，底层技术与 Gemini 3 同源，覆盖从边缘设备到高性能工作站的完整硬件谱系。专为移动端设计的 E2B/E4B 模型，与 Google Pixel 团队及高通、联发科深度合作优化，推理时仅激活 2B 或 4B 参数以节省内存和电量，支持 128K 上下文窗口及图片、视频、音频输入。性能更强的 26B MoE（混合专家）模型和追求极致性能的 31B Dense 模型，则在保证推理速度的同时，在 Arena AI 文本评分中分别位列开源模型第六和第三。所有模型均支持多步推理、函数调用、JSON 结构化输出，并具备构建自主 Agent 的能力。

基准测试数据揭示了这一代的巨大性能跃升。与上一代 Gemma 3 27B 相比，Gemma 4 31B 在数学推理基准 AIME 2026 上的得分从 20.8% 大幅跳升至 89.2%，代码能力也显著增强。这不仅是技术参数的提升，更意味着高性能 AI 模型正以前所未有的低门槛，从云端服务器下沉至个人手机和开发板，可能重塑移动端 AI 应用生态和开源模型社区的竞争格局。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: 人工智能, 开源模型, 边缘计算, Google DeepMind, 移动AI
- **Credibility**: unverified
- **Published**: 2026-04-03 00:29:24
- **ID**: 48192
- **URL**: https://whisperx.ai/en/intel/48192