干翻Transformer架构SubQ技术横空出世,大模型计算量暴降千倍

干翻Transformer架构SubQ技术横空出世,大模型计算量暴降千倍

2026 年 5 月 5 日,美国迈阿密 AI 初创公司 Subquadratic 发布全新大模型架构SubQ,依托自研亚二次稀疏注意力(SSA) 技术,彻底颠覆传统 Transformer 的算力逻辑,实现大模型计算量近千倍级下降,长文本处理成本骤降至主流模型的 5% 以下。

800_auto

传统 Transformer 注意力机制存在 “二次方诅咒”,上下文长度翻倍,算力成本翻四倍,百...

点击查看剩余70%

{{collectdata}}

网友评论