モデル比較

GLM-Z1-9B-0414

Qwen2.5-VL-7B-Instruct

2026/02/28

価格

Input

$

0.086

/ M Tokens

$

0.05

/ M Tokens

Output

$

0.086

/ M Tokens

$

0.05

/ M Tokens

メタデータ

作成する

2025/04/08

2025/01/26

ライセンス

MIT

APACHE-2.0

プロバイダー

Z.ai

Qwen

ハギングフェイス

仕様

Available

Available

建築

GLM-4

Vision-Language Model (VLM) combining a Vision Transformer (ViT) with window attention, SwiGLU, and RMSNorm, aligned with the Qwen2.5 LLM structure. It utilizes mRoPE for temporal understanding and YaRN for long text context handling.

キャリブレートされた

はい

いいえ

専門家の混合

いいえ

いいえ

合計パラメータ

9B

7B

アクティブ化されたパラメータ

9B

7B

推論

いいえ

いいえ

Precision

FP8

FP8

コンテキスト長

131K

33K

Max Tokens

131K

4K

対応機能

Serverless

対応

対応

Serverless LoRA

サポートされていません

サポートされていません

Fine-tuning

サポートされていません

サポートされていません

Embeddings

サポートされていません

サポートされていません

Rerankers

サポートされていません

サポートされていません

Image入力をサポートする

サポートされていません

サポートされていません

JSON Mode

対応

サポートされていません

構造化されたOutputs

サポートされていません

サポートされていません

ツール

対応

サポートされていません

Fim Completion

サポートされていません

サポートされていません

Chat Prefix Completion

サポートされていません

対応

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow