清华大学发布开源中文版ChatGPT模型ChatGLM-6B

清华大学发布开源中文版ChatGPT模型ChatGLM-6B

ChatGLM-6B是清华大学知识工程和数据挖掘小组(Knowledge Engineering Group (KEG) & Data Mining at Tsinghua University)发布的一个开源的对话机器人。根据官方介绍,这是一个千亿参数规模的中英文语言模型。并且对中文做了优化。本次开源的版本是其60亿参数的小规模版本,约60亿参数,本地部署仅需要6GB显存(INT4量化级别)。

800_auto

ChatGLM-6B的特点

从目前的使用情况看,这个模型虽然不大,但也是与ChatGPT类似,做了针对对话的调优,使用体验很好。

下图是几个对话实例:
800_auto

800_auto

可以看到,虽然该模型并不是很大,但是回答的结果十分自然。在这种规模的模型上能做到这种程度,对于很多中小企业或者成本敏感的个人开发者来说十分具有吸引力。

该模型的基础模型是GLM( GLM: General Language Model Pretraining with Autoregressive Blank Infilling ),是清华大学2021年3月份发布的一个预训练大模型。在2022年8月,他们发布了1300亿参数的超大规模的模型。该模型也是开源,只是目前仅接受内测邀请,需要申请才能使用。

ChatGLM-6B模型的硬件使用成本

根据测试,ChatGLM-6B虽然参数很少,但是效果很好。对于硬件的需求也很低。

800_auto

不过,由于ChatGLM-6B的规模较小,目前已知其具有相当多的局限性,如事实性/数学逻辑错误,可能生成有害/有偏见内容,较弱的上下文能力,自我认知混乱,以及对英文指示生成与中文指示完全矛盾的内容。请大家在使用前了解这些问题,以免产生误解。

github地址:https://github.com/THUDM/ChatGLM-6B

{{collectdata}}

网友评论