目录

总结: Hunyuan-MT-7B现已登陆SiliconFlow——腾讯的7B参数模型,重新定义了机器翻译。在WMT25上表现出色(30/31项任务中居第一),Hunyuan-MT-7B超越了谷歌翻译和其他顶尖翻译模型,涵盖33种语言,从中文、英文、日文到捷克语、马拉地语、爱沙尼亚语和冰岛语。立即通过我们的即插即用API体验——高端质量,免费使用!
SiliconFlow很高兴将Hunyuan-MT-7B引入我们的模型目录——腾讯的首个开源多语言翻译模型,支持33种主要语言之间的双向翻译。尽管是7B参数模型,Hunyuan-MT表现出色,显著超越许多翻译专用模型,甚至是最先进的大模型。
通过SiliconFlow的Hunyuan-MT-7B API,您可以期望:
免费使用: Hunyuan-MT-7B现已在SiliconFlow上免费提供使用。
全面的语言支持: 33种语言之间的双向翻译。
无论您是在本地化数字内容、推动跨境交流,还是驱动多语言企业解决方案,SiliconFlow的API通过可靠的质量将Hunyuan-MT-7B引入您的工作流程。
为什么它是机器翻译领域的变革者
在ACL WMT2025大会上,Hunyuan-MT-7B取得了重大成就——在31种语言赛道中30种中名列前茅,涵盖了高资源语言如中文、英文和日文,以及低资源语言如捷克语、马拉地语、爱沙尼亚语和冰岛语。
这个成就的显著之处在于WMT25设定了严格的条件:模型必须是开源的,并且只能用公共数据进行训练。尽管有这些限制,Hunyuan-MT-7B仍然超越了许多更大的模型。

FLORES-200基准测试结果确认了这一优势,Hunyuan-MT-7B超越了同级的7B–9B模型,甚至对抗更大的参数模型:
英语⇔多语言:达到91.1% (EN→XX)和90.2% (XX→EN),领先于翻译专用模型如Tower-Plus-9B (78.8% / 87.0%)和谷歌翻译(76.4% / 77.6%),在英语任务中体现出惯用的流畅性。
中文⇔多语言:得分为87.6% (ZH→XX)和85.3% (XX→ZH),在双向翻译中表现出色。
WMT24pp 领导地位:以85.8%超越Llama-4-Scout-17B-16E-Instruct (75.5%),证明了一个7B模型可以媲美更大的模型。
中文少数民族语言支持:在少数民族⇔普通话翻译任务中得分60.8%,明显领先于其他模型,强调了在少数和低资源翻译中的领先地位。
*注意:“XX”表示FLORES-200数据集中的其他语言。翻译对被分组为英语⇔XX,中文⇔XX,和XX⇔XX。

其成功背后训练范式
这种全面的领导地位是腾讯Hunyuan训练框架的成果,专为多语言翻译设计:
预训练 → CPT(持续预训练)→ 监督微调 → 翻译RL → 综合RL

这个渐进过程完善了模型的一般知识,使其适应翻译任务,并通过强化学习调整输出。
SiliconFlow模型广场上的真实表现
在这些演示中,您可以看到Hunyuan-MT-7B在SiliconFlow上运行,顺畅地在英语和西班牙语之间翻译。响应快速,翻译自然准确。

Hunyuan-MT-7B甚至可以轻松处理英语俚语,准确翻译“OG”为“más experimentado”(“最有经验的”)。

除了英语–西班牙语,您还可以在下表中探索Hunyuan-MT-7B支持的其他语言,非常适合全球交流、跨境业务和多语言应用。

立即开始使用
1. 探索: 在SiliconFlow模型广场中尝试Hunyuan-MT-7B。
2. 集成: 使用我们的OpenAI兼容API。在SiliconFlow API文档中探索完整的API规范。
立即在SiliconFlow上开始使用Hunyuan-MT-7B进行构建——强大、准确且免费使用!
