Hy3-preview

Hy3-preview

tencent/Hy3-preview

关于Hy3-preview

Hy3 preview is a 295B-parameter Mixture-of-Experts (MoE) language model from Tencent Hunyuan, built for production-grade agent workloads. With only 21B parameters activated per token and native 256K context support, it handles complex tasks like cross-file code refactoring, long-document analysis, and multi-step tool use, rather than just generating fluent dialogue. Hy3 scores near state-of-the-art on SWE-bench Verified and advanced STEM benchmarks, while offering three inference modes (no_think, think_low, think_high) to dynamically trade off latency and reasoning depth. Its sparse activation architecture delivers competitive intelligence at a significantly lower token cost.

可用的 Serverless

立即运行查询,仅按使用量付费

每 100 万 token(Input/Output)

$

0.0

/ M Tokens

每 100 万 token(Input/Output)

$

0.0

/ M Tokens

元数据

创建

许可证

TENCENT HY COMMUNITY LICENSE AGREEMENT

提供者

Tencent

HuggingFace

规格

Available

建筑

Mixture-of-Experts

校准的

专家混合

总参数

80B

激活的参数

21B

推理

精度

FP8

上下文长度

131K

最大输出长度

262K

支持功能

Serverless

支持

Serverless LoRA

不支持

微调

不支持

Embeddings

不支持

Rerankers

不支持

支持 Image Input

不支持

JSON Mode

不支持

结构化Outputs

不支持

工具

支持

FIM 补全

不支持

对话前缀补全

支持

准备好 加速您的人工智能开发吗?

准备好 加速您的人工智能开发吗?

准备好 加速您的人工智能开发吗?