Hunyuan-A13B-Instruct теперь доступен на SiliconFlow

30 июн. 2025 г.

Содержание

Команда Tencent Hunyuan AI объявила о выпуске Hunyuan-A13B-Instruct, модели крупномасштабного открытого исходного кода (LLM), которая теперь доступна на платформе SiliconFlow.

Построенная на архитектуре с мелкозернистым разделением экспертов (MoE), модель эффективно масштабирует 80 миллиардов общих параметров с использованием только 13 миллиардов активных параметров, достигая передовых показателей производительности по множеству тестов - особенно в области математики, науки, агентских доменов и не только.

SiliconFlow поддерживает:

  • Расширенный Контекст: Стандартные окна контекста на 128K tokenов(256K доступны по запросу).

  • Оптимизированные по стоимости цены: 0.14/M tokens(input) и 0.57/M tokens (output).

Почему Hunyuan-A13B-Instruct важен?

  • Компактный, но Мощный: С всего лишь 13 миллиардами активных параметров (из общего числа в 80 миллиардов), модель обеспечивает конкурентоспособную производительность на широком спектре тестовых задач, соперничая с гораздо более крупными моделями.

  • Поддержка Гибридного Мышления: Поддерживает как быстрые, так и медленные режимы мышления, позволяя пользователям гибко выбирать в зависимости от их нужд.

  • Понимание Ультра-Длинного Контекста: Изначально поддерживает окно контекста на 256K, поддерживая стабильную производительность в задачах на длинные тексты.

  • Улучшенные Возможности Агентов: Оптимизирована для задач агентов, достигая ведущих результатов в тестах, таких как BFCL-v3, τ-Bench и C3-Bench.

  • Эффективное Вынесение: Использует группированное внимание (GQA) и поддерживает множество форматов квантизации, обеспечивая высокоэффективное вынесение.

Быстрый старт

Попробуйте модель Hunyuan-A13B-Instruct прямо на SiliconFlow Playground.

Быстрый Доступ к API

Следующий пример на Python демонстрирует, как вызвать модель Hunyuan-A13B-Instruct, используя API-эндпоинт SiliconFlow. Для более подробной информации, пожалуйста, обратитесь к документации SiliconFlow API.

from openai import OpenAI

url = 'https://api.siliconflow.com/v1/'
api_key = 'your_api_key'

client = OpenAI(
    base_url=url,
    api_key=api_key
)

# Send a request with streaming output
content = ""
reasoning_content = ""
messages = [
    {"role": "user", "content": "How do you implement a binary search algorithm in Python with detailed comments?"}
]
response = client.chat.completions.create(
    model="tencent/Hunyuan-A13B-Instruct",
    messages=messages,
    stream=True,  # Enable streaming output
    max_tokens=4096,
    extra_body={
        "thinking_budget": 1024
    }
)
# Gradually receive and process the response
for chunk in response:
    if chunk.choices[0].delta.content:
        content += chunk.choices[0].delta.content
    if chunk.choices[0].delta.reasoning_content:
        reasoning_content += chunk.choices[0].delta.reasoning_content

# Round 2
messages.append({"role": "assistant", "content": content})
messages.append({'role': 'user', 'content': "Continue"})
response = client.chat.completions.create(
    model="tencent/Hunyuan-A13B-Instruct",
    messages=messages,
    stream=True
)

Hunyuan-A13B-Instruct - идеальный выбор для исследователей и разработчиков, стремящихся к высокой производительности. Будь то академическое исследование, разработка экономически эффективных AI решений или исследование инновационных приложений, эта модель предоставляет надежную основу для прогресса.

Начните создавать с Hunyuan-A13B-Instruct уже сегодня на SiliconFlow!

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)