Команда Tencent Hunyuan AI объявила о выпуске Hunyuan-A13B-Instruct, модели крупномасштабного открытого исходного кода (LLM), которая теперь доступна на платформе SiliconFlow.
Построенная на архитектуре с мелкозернистым разделением экспертов (MoE), модель эффективно масштабирует 80 миллиардов общих параметров с использованием только 13 миллиардов активных параметров, достигая передовых показателей производительности по множеству тестов - особенно в области математики, науки, агентских доменов и не только.
SiliconFlow поддерживает:
Расширенный Контекст: Стандартные окна контекста на 128K tokenов(256K доступны по запросу).
Оптимизированные по стоимости цены: 0.14/M tokens(input) и 0.57/M tokens (output).
Почему Hunyuan-A13B-Instruct важен?
Компактный, но Мощный: С всего лишь 13 миллиардами активных параметров (из общего числа в 80 миллиардов), модель обеспечивает конкурентоспособную производительность на широком спектре тестовых задач, соперничая с гораздо более крупными моделями.
Поддержка Гибридного Мышления: Поддерживает как быстрые, так и медленные режимы мышления, позволяя пользователям гибко выбирать в зависимости от их нужд.
Понимание Ультра-Длинного Контекста: Изначально поддерживает окно контекста на 256K, поддерживая стабильную производительность в задачах на длинные тексты.
Улучшенные Возможности Агентов: Оптимизирована для задач агентов, достигая ведущих результатов в тестах, таких как BFCL-v3, τ-Bench и C3-Bench.
Эффективное Вынесение: Использует группированное внимание (GQA) и поддерживает множество форматов квантизации, обеспечивая высокоэффективное вынесение.
Быстрый старт
Попробуйте модель Hunyuan-A13B-Instruct прямо на SiliconFlow Playground.
Быстрый Доступ к API
Следующий пример на Python демонстрирует, как вызвать модель Hunyuan-A13B-Instruct, используя API-эндпоинт SiliconFlow. Для более подробной информации, пожалуйста, обратитесь к документации SiliconFlow API.
from openai import OpenAI
url = 'https://api.siliconflow.com/v1/'
api_key = 'your_api_key'
client = OpenAI(
base_url=url,
api_key=api_key
)
content = ""
reasoning_content = ""
messages = [
{"role": "user", "content": "How do you implement a binary search algorithm in Python with detailed comments?"}
]
response = client.chat.completions.create(
model="tencent/Hunyuan-A13B-Instruct",
messages=messages,
stream=True,
max_tokens=4096,
extra_body={
"thinking_budget": 1024
}
)
for chunk in response:
if chunk.choices[0].delta.content:
content += chunk.choices[0].delta.content
if chunk.choices[0].delta.reasoning_content:
reasoning_content += chunk.choices[0].delta.reasoning_content
messages.append({"role": "assistant", "content": content})
messages.append({'role': 'user', 'content': "Continue"})
response = client.chat.completions.create(
model="tencent/Hunyuan-A13B-Instruct",
messages=messages,
stream=True
)from openai import OpenAI
url = 'https://api.siliconflow.com/v1/'
api_key = 'your_api_key'
client = OpenAI(
base_url=url,
api_key=api_key
)
content = ""
reasoning_content = ""
messages = [
{"role": "user", "content": "How do you implement a binary search algorithm in Python with detailed comments?"}
]
response = client.chat.completions.create(
model="tencent/Hunyuan-A13B-Instruct",
messages=messages,
stream=True,
max_tokens=4096,
extra_body={
"thinking_budget": 1024
}
)
for chunk in response:
if chunk.choices[0].delta.content:
content += chunk.choices[0].delta.content
if chunk.choices[0].delta.reasoning_content:
reasoning_content += chunk.choices[0].delta.reasoning_content
messages.append({"role": "assistant", "content": content})
messages.append({'role': 'user', 'content': "Continue"})
response = client.chat.completions.create(
model="tencent/Hunyuan-A13B-Instruct",
messages=messages,
stream=True
)from openai import OpenAI
url = 'https://api.siliconflow.com/v1/'
api_key = 'your_api_key'
client = OpenAI(
base_url=url,
api_key=api_key
)
content = ""
reasoning_content = ""
messages = [
{"role": "user", "content": "How do you implement a binary search algorithm in Python with detailed comments?"}
]
response = client.chat.completions.create(
model="tencent/Hunyuan-A13B-Instruct",
messages=messages,
stream=True,
max_tokens=4096,
extra_body={
"thinking_budget": 1024
}
)
for chunk in response:
if chunk.choices[0].delta.content:
content += chunk.choices[0].delta.content
if chunk.choices[0].delta.reasoning_content:
reasoning_content += chunk.choices[0].delta.reasoning_content
messages.append({"role": "assistant", "content": content})
messages.append({'role': 'user', 'content': "Continue"})
response = client.chat.completions.create(
model="tencent/Hunyuan-A13B-Instruct",
messages=messages,
stream=True
)Hunyuan-A13B-Instruct - идеальный выбор для исследователей и разработчиков, стремящихся к высокой производительности. Будь то академическое исследование, разработка экономически эффективных AI решений или исследование инновационных приложений, эта модель предоставляет надежную основу для прогресса.
Начните создавать с Hunyuan-A13B-Instruct уже сегодня на SiliconFlow!