Model Update2026-05-07VentureBeat

Subquadratic 聲稱 AI 效率提升 1000 倍,研究人員持懷疑態度

Subquadratic,一家總部位於邁阿密、剛從隱身模式中亮相的新創公司,對其新的 AI 模型 SubQ 做出了大膽的聲明。該公司聲稱,SubQ 透過擺脫長期限制模型可擴展性的二次注意力機制,實現了相較於現有 Transformer 架構高達 1000 倍的效率提升。如果屬實,這將代表 AI 效率方面的根本性突破,有可能在計算成本不成比例增加的情況下,實現更大、更強大的模型。 然而,AI 研究社群對此反應深表懷疑。幾位知名研究人員呼籲進行獨立驗證,並指出如此巨大的改進將挑戰既定的擴展法則。二次注意力機制是 Transformer 的核心瓶頸,許多團隊嘗試克服它但都以失敗告終,且無法在不犧牲品質的情況下成功。Subquadratic 尚未發布詳細的技術論文或將其模型開源以供同儕審查。 該新創公司聲稱其方法使用了一種新穎的數學公式,可以在不損失表達能力的情況下降低計算複雜度。但在獨立基準測試結果公布之前,這些說法仍未得到證實。如果 Subquadratic 能夠驗證其結果,它可能會重塑 AI 開發的經濟模式,使較小的組織也能使用先進模型。就目前而言,業界正以謹慎的興趣觀望,等待證據證明如此巨大的飛躍確實可能實現。

相关资讯

更多 AI 资讯

AIStart.ai · 你的专属 AI 启动台