Qwen3-235B-A22B-Instruct-2507: Ведущая открытая модель теперь доступна на SiliconFlow

28 июл. 2025 г.

Содержание

Qwen3-235B-A22B-Instruct-2507: Ведущая открытая модель теперь доступна на SiliconFlow
Qwen3-235B-A22B-Instruct-2507: Ведущая открытая модель теперь доступна на SiliconFlow

Qwen только что выпустил Qwen3-235B-A22B-Instruct-2507, обновленную версию своего флагманского Model Qwen3-235B-A22B Non-thinking. Это представляет собой значительный шаг вперед в области open-source, обеспечивая улучшенные общие возможности и превосходную производительность логического вывода, и теперь доступен на SiliconFlow.

Эта передовая Model обеспечивает значительные улучшения в следовании инструкциям, логическом мышлении, математике, кодировании и использовании инструментов. По результатам комплексных бенчмарков, она превосходит ведущие open-source модели, такие как Kimi-K2 и DeepSeek-V3-0324, а также проприетарные модели, такие как Claude-Opus4-Non-thinking. Независимо от того, создаете ли вы корпоративные приложения, проводите передовые исследования, создаете многоязычный контент или разрабатываете интеллектуальные ассистенты, эта Model справляется с этими задачами с исключительной производительностью.

С Qwen3-235B-A22B-Instruct-2507 API от SiliconFlow, вы можете ожидать:

  • Высокоскоростной Inference: Оптимизирован для снижения задержек и увеличения пропускной способности.

  • Экономичная стоимость: 0,35 $/М tokens (Input) и 1,42 $/М tokens (Output).

  • Расширенное контекстное окно: Контекстное окно 256K для сложных задач.

Улучшенные возможности и превосходная производительность

Обновленный Qwen3-235B-A22B-Instruct-2507 теперь доступен на SiliconFlow и включает следующие ключевые улучшения:

  • Улучшенные общие возможности: Улучшенное следование инструкциям, логическое мышление, понимание Text, математика, наука, кодирование и использование инструментов.

  • Лучшее согласование с пользователем: Более точное соответствие пользовательским предпочтениям в субъективных и открытых задачах, обеспечивая более полезные и качественные ответы.

  • Расширенное многоязычное знание: Существенные улучшения покрытия знаний в различных языках, включая специализированную, отраслевую и менее распространенную информацию.

  • Расширенное понимание контекста: Понимание контекста 256K.

Эти возможности явно демонстрируются в комплексных оценках, где Qwen3 последовательно превосходит ведущих конкурентов:

  • Передовые научные рассуждения: 77.5 на GPQA, превосходя Kimi K2 (75.1) и Claude Opus 4 Non-thinking (74.9), демонстрируя исключительные способности в рассуждениях на уровне аспиранта и решении сложных проблем.

  • Решение математических задач: 70.3 на AIME25, значительно впереди Kimi K2 (49.5) и DeepSeek-V3-0324 (46.6), доказывая навыки в конкурентной математике.

  • Реальная производительность кодирования: 51.8 на LiveCodeBench v6, превосходя Kimi K2 (48.9) и DeepSeek-V3-0324 (45.2), подтверждая сильные программные возможности в практических сценариях.

  • Отличная разговорная производительность: 79.2 на Arena-Hard v2, превосходя DeepSeek-V3 (66.1) и Qwen3-235B-A22B Non-thinking (52.0), подтверждая превосходные возможности в сложных открытых задачах и надежное согласование с человеческими предпочтениями.

  • Использование инструментов и вызов функций: 70.9 на BFCL-v3, лидируя Qwen3-235B-A22B Non-thinking (68.0) и Kimi K2 (65.2), демонстрируя передовые возможности интеграции внешних инструментов и использования API.

Эти впечатляющие результаты подчеркивают значительное достижение в развитии open-source AI. Qwen3-235B-A22B-Instruct-2507 не только соответствует, но и превосходит проприетарные модели, такие как Claude Opus 4 Non-thinking, по многим бенчмаркам, демонстрируя, что open-source модели достигают новых высот возможностей.

Начните использовать прямо сейчас

  1. Изучайте: Попробуйте Qwen3-235B-A22B-Instruct-2507 в SiliconFlow Playground.

  2. Интегрируйте: Используйте наш API, совместимый с OpenAI. Изучите полные спецификации API в документации API SiliconFlow.

import requests

url = "https://api.siliconflow.com/v1/chat/completions"

payload = {
    "model": "Qwen/Qwen3-235B-A22B-Instruct-2507",
    "max_tokens": 512,
    "min_p": 0.05,
    "temperature": 0.7,
    "top_p": 0.7,
    "top_k": 50,
    "frequency_penalty": 0.5,
    "messages": [
        {
            "content": "What opportunities and challenges will the Chinese large model industry face in 2025?",
            "role": "user"
        }
    ]
}
headers = {
    "Authorization": "Bearer ",
    "Content-Type": "application/json"
}

response = requests.request("POST", url, json=payload, headers=headers)

print(response.text)

Попробуйте сейчас на SiliconFlow и исследуйте эти мощные возможности лично!

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)