Gemma 3 Gemma 3

Gemma 4 - Google 最强大的开源 AI 模型

Gemma 4

与 AI 助手开始对话

您可以上传图片并选择不同的模型

💡 提示:可以直接粘贴剪贴板中的图片

关于 Gemma 4

Google 最强大的开源 AI 模型,基于 Gemini 3 研究和技术构建,实现前所未有的智能参数比。

Gemma 4 代表了开源 AI 模型的新时代,具有突破性的效率。基于 Gemini 3 研究构建,在紧凑的模型中提供前沿级别的智能。提供四种规格(2B、4B、26B、31B),可满足从边缘设备到个人电脑的各种部署需求。

模型规格

选择适合您部署场景的模型尺寸

E2B 和 E4B(边缘计算)

Gemma 4 E2B 和 E4B 变体最大化计算和内存效率。为移动和物联网设备带来全新智能水平。可以在手机、Raspberry Pi 和 Jetson Nano 上完全离线运行,延迟接近零。

E2B
E4B
  • Gemma 4 支持音频和视觉的实时边缘处理
  • 完全离线运行,接近零延迟
  • 专为移动和物联网设备优化

26B 和 31B(前沿级)

Gemma 4 26B 和 31B 模型实现前所未有的智能参数比。为 IDE、代码助手和智能代理工作流提供前沿级智能。为消费级 GPU 优化。

26B
31B
  • Gemma 4 为 IDE 和代码助手提供高级推理
  • 智能代理工作流和函数调用
  • 为消费级 GPU 优化(RTX 3090 等)

核心特性

Agentic

Gemma 4 构建能够计划、导航应用程序并完成任务自动执行的智能代理,支持原生函数调用

多模态

Gemma 4 提供强大的音频和视觉理解能力,支持丰富的多模态应用

多语言

Gemma 4 创建多语言体验,超越翻译理解文化背景

微调

使用您偏好的框架微调 Gemma 4 以改进特定任务的性能

高效

在您自己的硬件上运行 Gemma 4,实现高效的开发和部署

128K上下文

Gemma 4 支持高达 128K token 的上下文窗口,可处理长文档和复杂对话

应用场景

竞赛编程

LiveCodeBench 80%

智能代理工作流

τ2-bench 86.4%

视觉理解

MMMU Pro 76.9%

数学推理

AIME 2026 89.2%

多语言任务

140+ 种语言

Gemma 4 在高级推理、代码生成、竞赛编程、数学推理(AIME 2026:89.2%)和科学知识(GPQA Diamond:84.3%)方面表现出色。在智能代理工具使用(τ2-bench:86.4%)方面相比上一代有显著提升。

性能基准

截至 2026 年 4 月在多项基准测试中达到行业领先水平

通用智能

Arena AI(文本)
1452
MMMLU 多语言问答
85.2%
MMMU Pro 多模态推理
76.9%

高级推理

AIME 2026 数学
89.2%
GPQA Diamond 科学
84.3%

代码生成

LiveCodeBench v6
80.0%
τ2-bench 智能代理工具
86.4%

基准数据来自 Gemma 4 31B IT Thinking 模型。所有指标截至 4/2/26。

Gemma 4 与 Gemma 3 对比

在所有基准测试中都有显著提升
基准测试Gemma 4 31BGemma 3 27B提升幅度
Arena AI(文本)14521365+87
MMLU85.2%67.6%+17.6%
AIME 2026 数学89.2%20.8%+68.4%
LiveCodeBench80.0%29.1%+50.9%
τ2-bench 智能代理86.4%6.6%+79.8%

核心优势

01
行业领先智能

Gemma 4 实现前所未有的智能参数比,在紧凑的模型中提供前沿级能力。31B 模型在 AI 基准测试中名列前茅,在同类模型中表现出色。

02
计算效率

Gemma 4 以最少的计算实现最大的智能。基于 Gemini 3 研究构建,优化每个参数以实现最佳性能。在智能参数比方面有显著提升。

03
边缘部署

Gemma 4 E2B 和 E4B 变体专为移动和物联网设备设计,实现完全离线的近零延迟 AI 体验。支持音频和视觉的实时边缘处理。

04
企业级安全

Gemma 4 模型经过严格的安全协议验证,与我们的专有模型采用相同的安全标准。企业和主权组织获得值得信赖的透明基础,满足最高安全标准。

技术规格

模型架构

Gemma 4 基于 Gemini 3 研究和技术构建。采用优化的 Transformer 架构,在注意力机制和训练稳定性方面有改进。

训练方法

Gemma 4 使用海量数据集进行训练,结合人类反馈强化学习(RLHF)。在整个开发过程中融入安全训练和负责任的 AI 原则。

上下文窗口

Gemma 4 支持高达 128K token 的上下文窗口,部分变体可扩展至 256K。这使得处理长文档、代码库和扩展对话成为可能。

安全与责任

全面的安全评估,包括儿童安全、内容安全和表征伤害。实施多层安全保护机制,确保可靠部署。

实际应用案例

教育辅导

Gemma 4 凭借高级推理能力提供个性化学习支持。擅长用分步指导解释复杂的数学和科学概念。

软件开发

Gemma 4 为 IDE 集成提供强大的代码助手。在 LiveCodeBench 竞赛编程问题上达到 80%,提供高质量的代码建议和调试帮助。

企业应用

Gemma 4 为业务流程自动化构建智能代理。原生的函数调用支持实现与企业系统和工具的无缝集成。

研究助手

Gemma 4 为研究人员提供文献综述、假设验证和数据分析支持。在 GPQA Diamond 研究生级科学问题上达到 84.3%。

部署选项

Hugging Face

下载官方模型权重

huggingface.co/collections/google/gemma-4

Ollama

使用 Ollama 在本地运行

ollama.com/library/gemma4

Vertex AI

在 Google Cloud 上大规模部署

cloud.google.com/vertex-ai

集成生态系统

支持框架

JAX
Keras
PyTorch
Hugging Face

平台

Google AI Studio
Kaggle
LM Studio
Docker

边缘和移动端

Gemma.cpp
LiteRT-LM
MediaPipe
MLX

快速开始

立即开始使用 Gemma 4。在 Google AI Studio 中试用或下载到本地运行。

  1. 在 Google AI Studio 中试用 Gemma 4 31B - 无需设置
  2. 从 Hugging Face 或 Ollama 下载以进行本地部署
  3. 在您的 GPU 上本地运行或部署到云端基础设施
  4. 使用 LoRA 或全量微调针对您的特定用例进行定制