Model Update2026-05-07
VentureBeat
Subquadratic声称AI效率提升1000倍,研究人员表示怀疑
Subquadratic,一家刚刚从隐身模式中现身的迈阿密初创公司,对其新AI模型SubQ提出了大胆的声明。该公司声称,SubQ通过摆脱长期限制模型可扩展性的二次注意力约束,实现了比现有Transformer架构高出惊人的1000倍效率提升。如果属实,这将代表AI效率的根本性突破,有可能在不按比例增加计算成本的情况下,实现更大、能力更强的模型。
然而,AI研究界的反应是深深的怀疑。几位知名研究人员呼吁进行独立验证,指出如此巨大的改进将挑战已确立的扩展定律。二次注意力机制是Transformer的核心瓶颈,许多团队曾尝试——但都失败了——在不牺牲质量的情况下克服它。Subquadratic尚未发布详细的技术论文或将其模型开源以供同行评审。
该初创公司声称其方法使用了一种新颖的数学公式,在不损失表达能力的情况下降低了计算复杂度。但在独立基准测试公布之前,这些声明仍未得到证实。如果Subquadratic能够验证其成果,它可能重塑AI开发的经济格局,使先进模型对小型组织也变得触手可及。就目前而言,业界正以谨慎的兴趣观望,等待证据证明这样的飞跃确实可能实现。
