關於Hunyuan-MT-7B
混元翻譯模型由翻譯模型 Hunyuan-MT-7B 和集成模型 Hunyuan-MT-Chimera 組成。Hunyuan-MT-7B 是一個輕量級翻譯模型,具有 70 億參數,用於將源文本翻譯成目標語言。該模型支持包括中國五種少數民族語言在內的 33 種語言的互譯。在 WMT25 機器翻譯比賽中,Hunyuan-MT-7B 在其參與的 31 個語言類別中獲得了 30 個第一名,展示了其出色的翻譯能力。為了翻譯任務,騰訊混元提出了一個涵蓋預訓練、監督微調、翻譯增強和集成改進的綜合訓練框架,在同類規模的模型中達到最先進的性能。該模型計算效率高,易於部署,適用於各種應用場景。
可用的無伺服器
立即運行查詢,僅按使用量付費
$
0.0
/
$
0.0
每百萬 Tokens(輸入/輸出)
元數據
規格
狀態
Available
架構
經過校準的
否
專家並行
否
總參數
7B
啟用的參數
7B
推理
否
精度
FP8
上下文長度
33K
最大輸出長度
33K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
不支持
JSON 模式
支持
結構化輸出
不支持
工具
不支持
中間填充補全
不支持
聊天前綴補全
支持

