О GLM-5

GLM-5 is a next-generation open-source model for complex systems engineering and long-horizon agentic tasks, scaled to ~744B sparse parameters (~40B active) with ~28.5T pretraining tokens. It integrates DeepSeek Sparse Attention (DSA) to retain long-context capacity while reducing inference cost, and leverages the “slime” asynchronous RL stack to deliver strong performance in reasoning, coding, and agentic benchmarks.

Доступный Serverless

Запускайте запросы немедленно, платите только за использование

$

1.0

/

$

3.2

За 1 миллион Tokens (Input/Output)

Метаданные

Создать на

12 февр. 2026 г.

Лицензия

MIT

Поставщик

Z.ai

HuggingFace

Спецификация

Государство

Available

Архитектура

Mixture of Experts (MoE) with DeepSeek Sparse Attention (DSA) and asynchronous RL stack

Калибровка

Нет

Смешение экспертов

Да

Общее количество параметров

750B

Активированные параметры

40B

Мышление

Нет

Точность

ФП8

Контекст length

205K

Максимум Tokens

131K

поддерживается функциональность

Безсерверный

поддерживается

Безсерверный LoRA

Не поддерживается

Тонкая настройка

Не поддерживается

Embeddings

Не поддерживается

Rerankers

Не поддерживается

Поддержка Image Input

Не поддерживается

Режим JSON

Не поддерживается

Структурированные Outputs

Не поддерживается

Инструменты

поддерживается

Завершение погашения

Не поддерживается

Chat Префикс Заполнение

Не поддерживается

Сравнить с другими Model

Посмотрите, как эта Model сравнивается с другими.

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)