GLM-4.5 теперь доступен на SiliconFlow: модель с открытым исходным кодом SOTA для рассуждений, кода и агентских приложений

28 июл. 2025 г.

Содержание

GLM-4.5 теперь доступен на SiliconFlow
GLM-4.5 теперь доступен на SiliconFlow

Сегодня мы рады интегрировать GLM-4.5 и GLM-4.5-Air, последнюю флагманскую серию моделей Z.ai, в платформу SiliconFlow. Эта революционная серия моделей представляет собой значительный рубеж в развитии AGI, объединяя в одной модели способности к рассуждению, кодированию и агентству, чтобы удовлетворить все более сложные требования быстро развивающихся агентских приложений.

Независимо от того, занимаетесь ли вы проектами полного цикла разработки, сложной переработкой кода или созданием автономных агентных систем, GLM-4.5 предоставляет передовые функции и надежность, которые требуются интеллектуальным агентским приложениям. Это мощное дополнение к нашему каталогу моделей позволяет разработчикам расширять границы возможного в интеллектуальной автоматизации и сложных сценариях решения проблем.

С помощью GLM-4.5 API от SiliconFlow вы можете ожидать:

  • Экономичное ценообразование: GLM-4.5 $0.5/M token (Input) и $2/M tokens (Output); GLM-4.5-Air $0.14/M token (Input) и $0.86/M token (Output).

  • Расширенное окно контекста: окно контекста 128K для сложных задач.

Ключевые возможности и производительность в тестах

Теперь доступная на SiliconFlow серия моделей GLM-4.5 обладает следующими ключевыми возможностями:

  • Производительность SOTA: обеспечивает результаты на уровне самых современных открытых моделей в рассуждении, генерации кода и агентских возможностях, с лидирующей производительностью в реальных оценках кодовых агентов.

  • Архитектура MoE: GLM-4.5 имеет 355B параметров в общей сложности/32B активных параметра, в то время как GLM-4.5-Air принимает компактный дизайн с 106B параметров в общей сложности/12B активных параметров. Оба используют дизайн с Множеством специалистов для оптимальной эффективности.

  • Гибридный Inference: оба предоставляют режим мышления для сложных задач и режим без мышления для немедленных ответов.

Для полноценной оценки общих возможностей GLM-4.5, Z.ai выбрала 12 репрезентативных тестов, охватывающих три основные области: рассуждение (MMLU Pro, AIME 24, MATH 500), кодирование (SciCode, GPQA, HLE, LiveCodeBench, SWE-Bench Verified) и агентские возможности (Terminal-Bench, TAU-Bench, BFCL v3, BrowseComp).

Через эти комплексные мерки GLM-4.5 демонстрирует выдающуюся производительность:

  • Глобальный рейтинг: Занимает 3-е место в мире среди всех моделей на 12 комплексных тестах, набирая 63.2 — чуть позади лидера Grok-4 (63.6) и превосходя Claude 4 Opus (60.9).

  • Чемпион среди открытых источников: модель с наилучшей производительностью в категории открытых источников.

  • Технические области: показывает превосходство в математическом рассуждении, научном решении проблем, генерации кода, агентских рабочих процессах и выполнении сложных задач.

Почему GLM-4.5 так мощный

Передовой тренировочный процесс

Z.ai разработал GLM-4.5, используя сложный трехступенчатый процесс:

  • Предварительное обучение: 15 триллионов tokens общих данных для фундаментальных возможностей.

  • Домен-специфическое обучение: 8 триллионов tokens, сосредоточенных на задачах кода, рассуждения и агентства.

  • Обучение с подкреплением: улучшенное выполнение в рассуждении, кодировании и агентских рабочих процессах.

Высочайшая эффективность параметров

Через анализ границы эффективного фронта, GLM-4.5 демонстрирует исключительную эффективность:

  • Оптимальное масштабирование: превосходная производительность по сравнению с моделями аналогичного масштаба.

  • Лидерство в эффективности: достигает оптимальной эффективности на границе баланса между производительностью и масштабом.

  • Преимущество ресурсов: вдвое меньше параметров чем у DeepSeek-R1, одна треть у Kimi-K2.

  • Преимущества в стоимости: Высшая эффективность параметров приводит к быстрому Inference и снижению эксплуатационных затрат.

Производительность в реальном мире

Помимо оценок в тестах, практические возможности GLM-4.5 были строго протестированы в реальных сценариях кодирования:

Оценка агентного кодирования

Независимая оценка агентных кодировочных возможностей GLM-4.5 была проведена с использованием Claude Code в 52 разнообразных кодировочных задачах, включая фронтенд-разработку, создание инструментов, анализ данных, тестирование и реализацию алгоритмов.

Конкурентные результаты:

  • vs. Kimi K2: 53.9% побед в сравнительных анализах.

  • vs. Qwen3-Coder: 80.8% успешных случаев, демонстрируя явное превосходство

  • vs. Claude-4-Sonnet: Конкурентная производительность, хотя дальнейшая оптимизация всё ещё возможна

  • Точность вызова инструмента: ведущий успех 90.6% среди компаний, превосходя Claude-4-Sonnet (89.5%), Kimi-K2 (86.2%) и Qwen3-Coder (77.1%)

Сценарии реальных приложений

Возможности GLM-4.5 выходят за рамки тестов и демонстрируют универсальность в реальных разработках, проявляясь в разнообразных областях через реальные внедрения.

Интерактивное создание артефактов

GLM-4.5 создает сложные автономные артефакты — от интерактивных мини-игр до физических симуляций — на HTML, SVG, Python и других форматах, обеспечивая превосходный пользовательский опыт для продвинутых агентных кодировочных приложений.

Создание слайдов

Пользуясь мощными возможностями использования инструментов и HTML-кодирования GLM-4.5, модельный агент PPT/Poster автономно ищет в интернете, извлекает изображения и создает слайды из простых запросов или загруженных документов.

Полноценная веб-разработка

GLM-4.5 прекрасно справляется как с фронтенд, так и с бекенд-разработкой для современных веб-приложений. Пользователи могут создавать целые сайты всего лишь несколькими словами, а затем без труда добавлять функции через диалог с несколькими запросами, делая процесс кодирования приятным.

Эти реальные сценарии демонстрируют практическую полезность GLM-4.5 в профессиональных рабочих процессах разработки, от быстрого прототипирования до полного создания приложений.

Начните немедленно

import requests

url = "https://api.siliconflow.com/v1/chat/completions"

payload = {
    "model": "zai-org/GLM-4.5",
    "messages": [
        {
            "role": "user",
            "content": "Tell me a story"
        }
    ],
    "top_p": 0.95,
    "temperature": 0.6
}
headers = {
    "Authorization": "Bearer <token>",
    "Content-Type": "application/json"
}

response = requests.request("POST", url, json=payload, headers=headers)

print(response.text)

Создайте с API GLM-4.5 и GLM-4.5-Air на SiliconFlow сегодня!

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)