關於Hy3-preview
Hy3 preview is a 295B-parameter Mixture-of-Experts (MoE) language model from Tencent Hunyuan, built for production-grade agent workloads. With only 21B parameters activated per token and native 256K context support, it handles complex tasks like cross-file code refactoring, long-document analysis, and multi-step tool use, rather than just generating fluent dialogue. Hy3 scores near state-of-the-art on SWE-bench Verified and advanced STEM benchmarks, while offering three inference modes (no_think, think_low, think_high) to dynamically trade off latency and reasoning depth. Its sparse activation architecture delivers competitive intelligence at a significantly lower token cost.
可用的無伺服器
立即運行查詢,僅按使用量付費
每百萬 Tokens(輸入/輸出)
$
0.0
/ M Tokens
每百萬 Tokens(輸入/輸出)
$
0.0
/ M Tokens
元數據
規格
狀態
Available
架構
Mixture-of-Experts
經過校準的
否
專家並行
是
總參數
80B
啟用的參數
21B
推理
否
精度
FP8
上下文長度
131K
最大輸出長度
262K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
不支持
JSON 模式
不支持
結構化輸出
不支持
工具
支持
中間填充補全
不支持
聊天前綴補全
支持

