Hy3-preview

Hy3-preview

tencent/Hy3-preview

關於Hy3-preview

Hy3 preview is a 295B-parameter Mixture-of-Experts (MoE) language model from Tencent Hunyuan, built for production-grade agent workloads. With only 21B parameters activated per token and native 256K context support, it handles complex tasks like cross-file code refactoring, long-document analysis, and multi-step tool use, rather than just generating fluent dialogue. Hy3 scores near state-of-the-art on SWE-bench Verified and advanced STEM benchmarks, while offering three inference modes (no_think, think_low, think_high) to dynamically trade off latency and reasoning depth. Its sparse activation architecture delivers competitive intelligence at a significantly lower token cost.

可用的無伺服器

立即運行查詢,僅按使用量付費

每百萬 Tokens(輸入/輸出)

$

0.0

/ M Tokens

每百萬 Tokens(輸入/輸出)

$

0.0

/ M Tokens

元數據

創建於

許可證

TENCENT HY COMMUNITY LICENSE AGREEMENT

供應商

Tencent

HuggingFace

規格

狀態

Available

架構

Mixture-of-Experts

經過校準的

專家並行

總參數

80B

啟用的參數

21B

推理

精度

FP8

上下文長度

131K

最大輸出長度

262K

支援的功能

無伺服器

支持

無伺服器的 LoRA

不支持

微調

不支持

向量嵌入

不支持

重排序

不支持

支援圖片輸入

不支持

JSON 模式

不支持

結構化輸出

不支持

工具

支持

中間填充補全

不支持

聊天前綴補全

支持

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?