gemma-4-26B-A4B-it

gemma-4-26B-A4B-it

google/gemma-4-26B-A4B-it

Tentang gemma-4-26B-A4B-it

Gemma 4 26B is Google DeepMind's latest open-source MoE model, built on a 26B-parameter Mixture of Experts architecture that activates only 3.8B parameters during inference for exceptionally fast token throughput. Purpose-built for advanced reasoning and agentic workflows, it ranks #6 among all open models on the Arena AI leaderboard — outperforming models up to 20x its size — with native function-calling, 256K context, and full Apache 2.0 licensing.

Tersedia Serverless

Jalankan kueri segera, bayar hanya untuk penggunaan

Per 1M Token (Input/Output)

$

0.12

/ M Tokens

Per 1M Token (Input/Output)

$

0.4

/ M Tokens

Metadata

Buat di

Lisensi

APACHE 2.0

Penyedia

Google

Spesifikasi

Negara

Available

Arsitektur

Mixture of Experts

Terkalibrasi

Ya

Campuran Ahli

Ya

Total Parameter

31B

Parameter yang Diaktifkan

3.8B

Penalaran

Tidak

Precision

FP8

Text panjang konteks

262K

Max Tokens

262K

Didukung Keberfungsian

Serverless

didukung

Serverless LoRA

Tidak didukung

Fine-tuning

Tidak didukung

Embeddings

Tidak didukung

Rerankers

Tidak didukung

Dukung Image Input

didukung

JSON Mode

didukung

Output Terstruktur

Tidak didukung

Alat

didukung

Fim Completion

Tidak didukung

Chat Prefix Completion

Tidak didukung

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?