關於gemma-4-26B-A4B-it
Gemma 4 26B is Google DeepMind's latest open-source MoE model, built on a 26B-parameter Mixture of Experts architecture that activates only 3.8B parameters during inference for exceptionally fast token throughput. Purpose-built for advanced reasoning and agentic workflows, it ranks #6 among all open models on the Arena AI leaderboard — outperforming models up to 20x its size — with native function-calling, 256K context, and full Apache 2.0 licensing.
可用的無伺服器
立即運行查詢,僅按使用量付費
每百萬 Tokens(輸入/輸出)
$
0.12
/ M Tokens
每百萬 Tokens(輸入/輸出)
$
0.4
/ M Tokens
元數據
規格
狀態
Available
架構
Mixture of Experts
經過校準的
是
專家並行
是
總參數
31B
啟用的參數
3.8B
推理
否
精度
FP8
上下文長度
262K
最大輸出長度
262K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
支持
JSON 模式
支持
結構化輸出
不支持
工具
支持
中間填充補全
不支持
聊天前綴補全
不支持
