关于ERNIE-4.5-300B-A47B
ERNIE-4.5-300B-A47B是百度根据专家混合(MoE)架构开发的大型语言模型。该模型总共有3000亿个参数,但在推理期间每个token仅激活47亿个参数,从而在强大的性能和计算效率之间取得平衡。作为ERNIE 4.5系列的核心模型之一,它在PaddlePaddle深度学习框架上进行训练,并在文本理解、生成、推理和编码等任务中展现出卓越的能力。该模型采用创新的异构Multimodal MoE预训练方法,通过文本和视觉模态上的联合训练,有效增强其整体能力,在指令执行和世界知识记忆方面表现突出。百度已开源此模型及系列中的其他模型,以促进AI技术的研究和应用。
可用的 Serverless
立即运行查询,仅按使用量付费
$
0.28
/
$
1.1
每 100 万 token(Input/Output)
元数据
规格
州
Available
建筑
校准的
不
专家混合
是
总参数
300B
激活的参数
47B
推理
不
精度
FP8
上下文长度
131K
最大输出长度
131K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
支持
结构化Outputs
不支持
工具
不支持
FIM 补全
不支持
对话前缀补全
不支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

