約gemma-4-26B-A4B-it
Gemma 4 26B is Google DeepMind's latest open-source MoE model, built on a 26B-parameter Mixture of Experts architecture that activates only 3.8B parameters during inference for exceptionally fast token throughput. Purpose-built for advanced reasoning and agentic workflows, it ranks #6 among all open models on the Arena AI leaderboard — outperforming models up to 20x its size — with native function-calling, 256K context, and full Apache 2.0 licensing.
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
100万トークン(Input/Output)ごとに
$
0.12
/ M Tokens
100万トークン(Input/Output)ごとに
$
0.4
/ M Tokens
メタデータ
仕様
州
Available
建築
Mixture of Experts
キャリブレートされた
はい
専門家の混合
はい
合計パラメータ
31B
アクティブ化されたパラメータ
3.8B
推論
いいえ
Precision
FP8
コンテキスト長
262K
Max Tokens
262K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
対応
JSON Mode
対応
構造化されたOutputs
サポートされていません
ツール
対応
Fim Completion
サポートされていません
Chat Prefix Completion
サポートされていません
