HuggingFace最流行的AI 模型分享

HuggingFace最流行的AI 模型分享

HuggingFace是目前最火热的AI社区,很多人称之为AI模型的GitHub。包括Google、微软等很多知名企业都在上面发布模型。而HuggingFace上提供的流行的模型也是大家应当关注的内容。我们看看这一周最流行的9个AI模型:

800_auto
上图就是过去七天最流行的模型,我们分别简单介绍一下。

一、Cerebras-GPT-13B

Cerebras GPT是由Cerebras公司开源的自然语言处理领域的预训练大模型,其模型参数规模最小1.11亿,最大130亿,共7个模型。

800_auto

与业界的模型相比,Cerebras-GPT几乎是各个方面完全公开,没有任何限制。不管是模型架构,还是预训练结果都是公开的。目前开源的模型结构和具体训练细节如下:

而排行榜第一的13B是其中最大的模型。过去七天它获得了2.68K的关注,当之无愧的第一名。

二、stable-diffusion-v1-5

著名的开源的Text-to-Image模型,是DALL·E2和Midjourney的免费替代品。Stable-Diffusion-v1-5的checkpoints使用Stable-Diffusion-v1-2的权重进行了初始化,随后在“laion-aesthetics v2 5+”上以512x512的分辨率进行了595k步的微调,并且降低了10%的文本调节来改善无分类器的引导采样。

尽管StableDiffusion2.1已经发布,这个1.5模型这么火热真没有想到。

Stable Diffusion2.0版本模型卡信息:Stable Diffusion-2.0(Stable Diffusion 2.0)详情 | 数据学习 (DataLearner)

三、清华大学的ChatGLM-6B

清华大学著名的ChatGLM-6B的开源模型。基于GLM-13B模型做的指令微调。由于仅包含60亿参数,且效果很好,可以在自己电脑上运...

点击查看剩余70%

{{collectdata}}

网友评论