Falcon 180B:全球最强大开源模型震撼亮相

Falcon 180B:全球最强大开源模型震撼亮相

近日全球最强大的开源大模型 Falcon 180B 突然亮相,引爆了互联网和人工智能领域的热烈讨论。Falcon 180B 拥有巨大的规模,包含了1800亿参数,其训练过程涵盖了高达3.5万亿的token数量,从而一举登顶了HuggingFace排行榜。

800_auto

在基准测试中,Falcon 180B 在各种任务中都表现出色,包括推理、编码、熟练度和知识测试,轻松击败了竞争对手 LLaMA 2。

800_auto

更令人惊叹的是,Falcon 180B 的性能可与谷歌的 PaLM 2 媲美,甚至超越了 GPT-4。然而,对于这一突破性的开源模型,也引发了一些专家的质疑。

英伟达高级科学家Jim Fan指出了一些关键问题:

Falcon-180B 的训练数据中,代码只占了5%。而代码对于提高推理能力、掌握工具使用和增强AI智能体来说是非常重要的。相比之下,GPT-3.5 是在 Codex 的基础上进行微调的。

模型缺乏编码基准数据,而没有代码能力,就无法声称「优于GPT-3...

点击查看剩余70%

{{collectdata}}

网友评论