gemma-4-26B-A4B-it

gemma-4-26B-A4B-it

google/gemma-4-26B-A4B-it

約gemma-4-26B-A4B-it

Gemma 4 26B is Google DeepMind's latest open-source MoE model, built on a 26B-parameter Mixture of Experts architecture that activates only 3.8B parameters during inference for exceptionally fast token throughput. Purpose-built for advanced reasoning and agentic workflows, it ranks #6 among all open models on the Arena AI leaderboard — outperforming models up to 20x its size — with native function-calling, 256K context, and full Apache 2.0 licensing.

利用可能な Serverless

クエリをすぐに実行し、使用量のみを支払います

100万トークン(Input/Output)ごとに

$

0.12

/ M Tokens

100万トークン(Input/Output)ごとに

$

0.4

/ M Tokens

メタデータ

作成する

ライセンス

APACHE 2.0

プロバイダー

Google

ハギングフェイス

仕様

Available

建築

Mixture of Experts

キャリブレートされた

はい

専門家の混合

はい

合計パラメータ

31B

アクティブ化されたパラメータ

3.8B

推論

いいえ

Precision

FP8

コンテキスト長

262K

Max Tokens

262K

対応機能

Serverless

対応

Serverless LoRA

サポートされていません

Fine-tuning

サポートされていません

Embeddings

サポートされていません

Rerankers

サポートされていません

Image入力をサポートする

対応

JSON Mode

対応

構造化されたOutputs

サポートされていません

ツール

対応

Fim Completion

サポートされていません

Chat Prefix Completion

サポートされていません

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?