关于Hunyuan-A13B-Instruct
Hunyuan-A13B-Instruct仅激活其80 B参数中的13 B,但在主流基准测试中与更大的LLMs匹配。它提供混合推理:低延迟的“快速”模式或高精度的“慢速”模式,可以在每次调用时切换。本地256 K-token上下文让它能够处理书籍长度的文档而不退化。代理技能为BFCL-v3、τ-Bench和C3-Bench领导进行了调优,使其成为出色的自主助手骨干。分组查询注意力加上多格式量化提供记忆轻、GPU高效的推理,用于现实世界的部署,具有内置的多语言支持和企业级应用的强大安全对齐。
可用的 Serverless
立即运行查询,仅按使用量付费
每 100 万 token(Input/Output)
$
0.14
/ M Tokens
每 100 万 token(Input/Output)
$
0.57
/ M Tokens
元数据
规格
州
Available
建筑
Mixture of Experts
校准的
是
专家混合
是
总参数
80B
激活的参数
13B
推理
不
精度
FP8
上下文长度
131K
最大输出长度
131K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
支持
结构化Outputs
不支持
工具
不支持
FIM 补全
不支持
对话前缀补全
不支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

Tencent
chat
Hy3-preview
发行日期:2026年4月7日
上下文长度:
131K
最大输出长度:
262K
Input:
$
0.066
/ M Tokens
Output:
$
0.26
/ M Tokens

Tencent
chat
Hunyuan-MT-7B
发行日期:2025年9月18日
上下文长度:
33K
最大输出长度:
33K
Input:
$
0.0
/ M Tokens
Output:
$
0.0
/ M Tokens

Tencent
chat
Hunyuan-A13B-Instruct
发行日期:2025年6月30日
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens
