ChatGLM2-6B 推出,性能大幅提升,可使用8-32k上下文,推理速度提升42%
自3月14日发布以来,开源的对话式语言模型 ChatGLM-6B 受到了开发者的青睐。截至6月24日,其在 Huggingface 上被下载超过了300万次。为了进一步推动大型模型在开源社区中的发展,我们将 ChatGLM-6B 升级为 ChatGLM2-6B。
截至6月25日,ChatGLM2-6B 在评估中文语言模型能力的CEval排行榜上取得了71.1的得分,位居Rank 0。在同一榜单上,它的前身 ChatGLM2 的得分为51.7,位居Rank 6,是该榜单上排名最高的开源模型。
点击查看剩余70%
网友评论