約GLM-5

GLM-5 is a next-generation open-source model for complex systems engineering and long-horizon agentic tasks, scaled to ~744B sparse parameters (~40B active) with ~28.5T pretraining tokens. It integrates DeepSeek Sparse Attention (DSA) to retain long-context capacity while reducing inference cost, and leverages the “slime” asynchronous RL stack to deliver strong performance in reasoning, coding, and agentic benchmarks.

利用可能な Serverless

クエリをすぐに実行し、使用量のみを支払います

$

1.0

$

3.2

100万トークン(Input/Output)ごとに

メタデータ

作成する

2026/02/12

ライセンス

MIT

プロバイダー

Z.ai

ハギングフェイス

仕様

Available

建築

Mixture of Experts (MoE) with DeepSeek Sparse Attention (DSA) and asynchronous RL stack

キャリブレートされた

いいえ

専門家の混合

はい

合計パラメータ

750B

アクティブ化されたパラメータ

40B

推論

いいえ

Precision

FP8

コンテキスト長

205K

Max Tokens

131K

対応機能

Serverless

対応

Serverless LoRA

サポートされていません

Fine-tuning

サポートされていません

Embeddings

サポートされていません

Rerankers

サポートされていません

Image入力をサポートする

サポートされていません

JSON Mode

サポートされていません

構造化されたOutputs

サポートされていません

ツール

対応

Fim Completion

サポートされていません

Chat Prefix Completion

サポートされていません

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow