gemma-4-26B-A4B-it
Tentang gemma-4-26B-A4B-it
Gemma 4 26B is Google DeepMind's latest open-source MoE model, built on a 26B-parameter Mixture of Experts architecture that activates only 3.8B parameters during inference for exceptionally fast token throughput. Purpose-built for advanced reasoning and agentic workflows, it ranks #6 among all open models on the Arena AI leaderboard — outperforming models up to 20x its size — with native function-calling, 256K context, and full Apache 2.0 licensing.
Tersedia Serverless
Jalankan kueri segera, bayar hanya untuk penggunaan
Per 1M Token (Input/Output)
$
0.12
/ M Tokens
Per 1M Token (Input/Output)
$
0.4
/ M Tokens
Metadata
Spesifikasi
Negara
Available
Arsitektur
Mixture of Experts
Terkalibrasi
Ya
Campuran Ahli
Ya
Total Parameter
31B
Parameter yang Diaktifkan
3.8B
Penalaran
Tidak
Precision
FP8
Text panjang konteks
262K
Max Tokens
262K
Didukung Keberfungsian
Serverless
didukung
Serverless LoRA
Tidak didukung
Fine-tuning
Tidak didukung
Embeddings
Tidak didukung
Rerankers
Tidak didukung
Dukung Image Input
didukung
JSON Mode
didukung
Output Terstruktur
Tidak didukung
Alat
didukung
Fim Completion
Tidak didukung
Chat Prefix Completion
Tidak didukung
Bandingkan dengan Model Lain
Lihat bagaimana model ini dibandingkan dengan yang lain.
