目錄
縮寫: Hunyuan-MT-7B 現已在 SiliconFlow 上提供 — 騰訊的 7B 參數模型重新定義了機器翻譯。在 WMT25 上最佳(30/31 任務中排名第一),Hunyuan-MT-7B 超越了谷歌翻譯和其他頂級翻譯專用模型,涵蓋 33 種語言,從中文、英語、日語到捷克語、馬拉地語、愛沙尼亞語和冰島語。立即通過我們的即插即用 API 體驗 — 高品質,免費使用!
SiliconFlow 很高興將 Hunyuan-MT-7B 引入我們的 模型目錄 — 騰訊 首個支持 33 種主要語言雙向翻譯的開源多語種翻譯模型。儘管是 7B 參數模型,Hunyuan-MT 展現了令人印象深刻的性能。它顯著超越了許多翻譯專用模型,甚至是最先進的大模型。
使用 SiliconFlow 的 Hunyuan-MT-7B API,您可以期望:
免費使用: Hunyuan-MT-7B 現在可免費在 SiliconFlow 使用。
全面的語言支持: 支持 33 種語言的雙向翻譯。
無論您是在本地化數字內容、支持跨境交流,還是推動多語種企業解決方案,SiliconFlow 的 API 將 Hunyuan-MT-7B 帶入您的工作流程,具有可靠的品質。
為什麼它是機器翻譯的遊戲改變者
在 ACL WMT2025 上,Hunyuan-MT-7B 取得了重大成就 — 在 30 個語言賽道中排名第一,涵蓋高資源語言如中文、英語和日語,以及低資源語言如捷克語、馬拉地語、愛沙尼亞語和冰島語。
這一成就之所以令人矚目,是因為 WMT25 施加了嚴格的限制:模型必須是開源的並且只能使用公開可用的數據進行訓練。儘管有這些限制,Hunyuan-MT-7B 仍然能夠 超過許多大型模型。

FLORES-200 基準測試結果證實了這一優勢,Hunyuan-MT-7B 超過同類 7B–9B 模型,甚至與更大參數模型競爭:
英語⇔多語種:達成 91.1% (EN→XX) 和 90.2% (XX→EN),超越翻譯專用模型如 Tower-Plus-9B (78.8% / 87.0%) 和 Google-Translator (76.4% / 77.6%),突出了英語任務中的成語流利度。
中文⇔多語種:得分 87.6% (ZH→XX) 和 85.3% (XX→ZH),在兩個方向上表現出強大的性能。
WMT24pp 領導地位:以 85.8% 超過 Llama-4-Scout-17B-16E-Instruct (75.5%),證明一個 7B 模型能夠與更大的模型競爭。
中國少數民族語言支持:在 少數民族⇔普通話翻譯任務中得分 60.8%,明顯超過其他模型,強調在少數民族和低資源翻譯中的領導地位。
*注意:“XX” 表示 FLORES-200 數據集中其他的語言。翻譯對組合為 英語⇔XX,中文⇔XX,和 XX⇔XX。

其成功背後的訓練范式
這種全面的領導地位是騰訊 Hunyuan 訓練框架的結果,專門為多語言翻譯設計:
預訓練 → 持續預訓練 → 監督微調 → 翻譯強化學習 → 綜合強化學習

這個漸進的過程細化模型的一般知識,將其適應翻譯任務,並通過強化學習對輸出進行校準。
SiliconFlow 探索平台上的真實性能
在這些演示中,您可以看到 Hunyuan-MT-7B 在 SiliconFlow 上運行,實現英語和西班牙語之間的無縫翻譯。響應速度快,翻譯自然且準確。

Hunyuan-MT-7B 甚至能輕鬆處理英語俚語,準確翻譯 “OG” 為 “más experimentado”(“最有經驗”)。

除了英語–西班牙語,您還可以在下表中探索由 Hunyuan-MT-7B 支持的其他語言,使其非常適合全球交流、跨境業務和多語種應用。

立即開始
1. 探索: 在 SiliconFlow 探索平台 中試用 Hunyuan-MT-7B。
2. 整合: 使用我們兼容 OpenAI 的 API。探索 SiliconFlow API 文檔中的完整 API 規範。
今天就在 SiliconFlow 上使用 Hunyuan-MT-7B 開始構建 — 強大、準確且免費使用!

