关于gemma-4-26B-A4B-it
Gemma 4 26B is Google DeepMind's latest open-source MoE model, built on a 26B-parameter Mixture of Experts architecture that activates only 3.8B parameters during inference for exceptionally fast token throughput. Purpose-built for advanced reasoning and agentic workflows, it ranks #6 among all open models on the Arena AI leaderboard — outperforming models up to 20x its size — with native function-calling, 256K context, and full Apache 2.0 licensing.
可用的 Serverless
立即运行查询,仅按使用量付费
每 100 万 token(Input/Output)
$
0.12
/ M Tokens
每 100 万 token(Input/Output)
$
0.4
/ M Tokens
元数据
规格
州
Available
建筑
Mixture of Experts
校准的
是
专家混合
是
总参数
31B
激活的参数
3.8B
推理
不
精度
FP8
上下文长度
262K
最大输出长度
262K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
支持
JSON Mode
支持
结构化Outputs
不支持
工具
支持
FIM 补全
不支持
对话前缀补全
不支持
