ChatGLM2-6B 推出,性能大幅提升,可使用8-32k上下文,推理速度提升42%

ChatGLM2-6B 推出,性能大幅提升,可使用8-32k上下文,推理速度提升42%

自3月14日发布以来,开源的对话式语言模型 ChatGLM-6B 受到了开发者的青睐。截至6月24日,其在 Huggingface 上被下载超过了300万次。为了进一步推动大型模型在开源社区中的发展,我们将 ChatGLM-6B 升级为 ChatGLM2-6B。

800_auto

截至6月25日,ChatGLM2-6B 在评估中文语言模型能力的CEval排行榜上取得了71.1的得分,位居Rank 0。在同一榜单上,它的前身 ChatGLM2 的得分为51.7,位居Rank 6,是该榜单上排名最高的开源模型。

800_auto

ChatGLM2-6B 保留了其前身的优点,如流畅的对话流程和易于部署等,同时引入了以下新功能:

更强大的性能:我们基于 ChatGLM 初代模型的开发经验,全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,并在 1.4T 中英标识符上进行了预训练和人...

点击查看剩余70%

{{collectdata}}

网友评论