模型比較

GLM-5

對比

MiniMax-M1-80k

2026年2月15日

定價

輸入

$

0.3

/ M Tokens

$

0.55

/ M Tokens

輸出

$

2.55

/ M Tokens

$

2.2

/ M Tokens

元數據

創建於

2026年2月11日

2025年6月13日

許可證

MIT

APACHE 2.0

供應商

Z.ai

MiniMaxAI

規格

Available

Deprecated

架構

Mixture of Experts (MoE) with DeepSeek Sparse Attention (DSA) and asynchronous RL stack

hybrid-attention Mixture-of-Experts (MoE)

經過校準的

專家混合

總參數

750B

456B

啟用的參數

40B

45.9B

推理

精確

FP8

FP8

上下文長度

205K

131K

最大輸出長度

131K

131K

支援的功能

無伺服器

支持

支持

無伺服器的 LoRA

不支持

不支持

微調

不支持

不支持

嵌入

不支持

不支持

重新排名者

不支持

不支持

支援圖片輸入

不支持

不支持

JSON 模式

不支持

不支持

結構化輸出

不支持

不支持

工具

支持

不支持

完成最後一步

不支持

不支持

聊天前綴完成

不支持

不支持

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow