开源MoE大模型DeepSeek-V2发布,性能直逼gpt4,api价格为仅为gpt4的百分之一

开源MoE大模型DeepSeek-V2发布,性能直逼gpt4,api价格为仅为gpt4的百分之一

DeepSeek AI 公司近日开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,该模型参数量达 236B,其中每个 token 激活 21B 参数,支持 128K token 的上下文长度。

与 DeepSeek 67B 相比,DeepSeek-V2...

点击查看剩余70%

{{collectdata}}

网友评论