被开源deepseek逼到墙角的百度终于开源了文心一言Ernie4.5
2025年6月30日,百度正式开源文心大模型4.5系列。此次开源的模型共10款,涵盖了激活参数规模分别为47B和3B的混合专家(MoE)模型(最大的模型总参数量为424B),以及0.3B的稠密参数模型。
这些模型的预训练权重和推理代码完全开源,遵循Apache 2.0协议,支持学术研究和产业应用。
核心技术亮点
多模态异构模型结构:针对MoE架构,百度提出了一种创新性的多模态异构模型结构,通过跨模态参数共享机制实现模态间知识融合,同时为各单一模态保留专用参数空间。此架构适用于从大语言模型向多模态模型的持续预训练范式,在保持甚至提升文本任...
点击查看剩余70%
网友评论