關於ERNIE-4.5-300B-A47B
ERNIE-4.5-300B-A47B 是由百度基於專家混合(MoE)架構開發的大型語言模型。該模型總共擁有 3000 億個參數,但在推理過程中每個 token 僅激活 470 億個參數,從而平衡了強大的性能和計算效率。作為 ERNIE 4.5 系列的核心模型之一,它在 PaddlePaddle 深度學習框架上進行訓練,並在文本理解、生成、推理和編碼等任務中展示出卓越的能力。該模型利用了一種創新的多模態異質 MoE 預訓練方法,通過在文本和視覺模態上的聯合訓練有效提升了其整體能力,在指令跟隨和世界知識記憶方面顯示出顯著的結果。百度已開源此模型及系列中的其他模型,以促進人工智能技術的研究和應用。
可用的無伺服器
立即運行查詢,僅按使用量付費
$
0.28
/
$
1.1
每百萬 Tokens(輸入/輸出)
元數據
規格
狀態
Available
架構
Mixture-of-Experts
經過校準的
否
專家並行
是
總參數
300B
啟用的參數
47B
推理
否
精度
FP8
上下文長度
131K
最大輸出長度
131K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
不支持
JSON 模式
支持
結構化輸出
不支持
工具
不支持
中間填充補全
不支持
聊天前綴補全
不支持
與其他模型比較
看看這個模型與其他模型的對比如何。

