GLM-5
О GLM-5
GLM-5 is a next-generation open-source model for complex systems engineering and long-horizon agentic tasks, scaled to ~744B sparse parameters (~40B active) with ~28.5T pretraining tokens. It integrates DeepSeek Sparse Attention (DSA) to retain long-context capacity while reducing inference cost, and leverages the “slime” asynchronous RL stack to deliver strong performance in reasoning, coding, and agentic benchmarks.
Доступный Serverless
Запускайте запросы немедленно, платите только за использование
$
1.0
/
$
3.2
За 1 миллион Tokens (Input/Output)
Метаданные
Спецификация
Государство
Available
Архитектура
Mixture of Experts (MoE) with DeepSeek Sparse Attention (DSA) and asynchronous RL stack
Калибровка
Нет
Смешение экспертов
Да
Общее количество параметров
750B
Активированные параметры
40B
Мышление
Нет
Точность
ФП8
Контекст length
205K
Максимум Tokens
131K
поддерживается функциональность
Безсерверный
поддерживается
Безсерверный LoRA
Не поддерживается
Тонкая настройка
Не поддерживается
Embeddings
Не поддерживается
Rerankers
Не поддерживается
Поддержка Image Input
Не поддерживается
Режим JSON
Не поддерживается
Структурированные Outputs
Не поддерживается
Инструменты
поддерживается
Завершение погашения
Не поддерживается
Chat Префикс Заполнение
Не поддерживается
Сравнить с другими Model
Посмотрите, как эта Model сравнивается с другими.

Z.ai
chat
GLM-5
Выпуск: 12 февр. 2026 г.
Общий Контекст:
205K
Максимальный Output:
131K
Input:
$
1.0
/ M Tokens
Output:
$
3.2
/ M Tokens

Z.ai
chat
GLM-4.7
Выпуск: 23 дек. 2025 г.
Общий Контекст:
205K
Максимальный Output:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
Выпуск: 8 дек. 2025 г.
Общий Контекст:
131K
Максимальный Output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
Выпуск: 4 окт. 2025 г.
Общий Контекст:
205K
Максимальный Output:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
Выпуск: 28 июл. 2025 г.
Общий Контекст:
131K
Максимальный Output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
Выпуск: 13 авг. 2025 г.
Общий Контекст:
66K
Максимальный Output:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
Выпуск: 4 июл. 2025 г.
Общий Контекст:
66K
Максимальный Output:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
Выпуск: 18 апр. 2025 г.
Общий Контекст:
131K
Максимальный Output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
Выпуск: 18 апр. 2025 г.
Общий Контекст:
33K
Максимальный Output:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens
