阿里开源性能媲美Mistral-7B首个MoE技术大模型Qwen1.5-MoE-A2.7B

阿里开源性能媲美Mistral-7B首个MoE技术大模型Qwen1.5-MoE-A2.7B

800_auto

阿里巴巴近日宣布开源其首个采用MoE(Mixture of Experts)技术的大规模模型Qwen1.5-MoE-A2.7B,该模型性能相当于70亿参数的大模型。Qwen1.5-MoE-A2.7B基于此前开源的Qwen1.5-1.8B模...

点击查看剩余70%

{{collectdata}}

网友评论