關於ERNIE-4.5-300B-A47B
ERNIE-4.5-300B-A47B 是由百度基於專家混合(MoE)架構開發的大型語言模型。該模型總共有 3000 億參數,但在推理過程中每個標記僅啟用 470 億參數,從而在強大性能與計算效率之間取得平衡。作為 ERNIE 4.5 系列的核心模型之一,它在 PaddlePaddle 深度學習框架上進行訓練,在文本理解、生成、推理和編碼等任務中展現出卓越的能力。這個模型利用創新的多模態異構 MoE 預訓練方法,通過對文本和視覺模態的聯合訓練,有效提升其整體能力,在指令遵循和世界知識記憶方面表現出色。百度已經開源此模型和該系列中的其他模型,以促進人工智能技術的研究和應用。
可用的無伺服器
立即運行查詢,僅按使用量付費
$
0.28
/
$
1.1
每百萬 Tokens(輸入/輸出)
元數據
規格
狀態
可用
架構
經過校準的
不
專家並行
是
總參數
300B
啟用的參數
47B
推理
不
精度
FP8
上下文長度
131K
最大輸出長度
131K
支援的功能
無伺服器
支持
無伺服器的 LoRA
不支持
微調
不支持
向量嵌入
不支持
重排序
不支持
支援圖片輸入
不支持
JSON 模式
支持
結構化輸出
不支持
工具
不支持
中間填充補全
不支持
聊天前綴補全
不支持
與其他模型比較
看看這個模型與其他模型的對比如何。

