Model Update2026-05-07
VentureBeat
Subquadratic、AI効率1,000倍を主張、研究者は懐疑的
マイアミに拠点を置くスタートアップSubquadraticがステルスモードから登場し、新しいAIモデルSubQについて大胆な主張を行っています。同社は、SubQがモデルのスケーラビリティを長年制限してきた二次注意機構の制約から脱却することにより、既存のトランスフォーマーアーキテクチャと比較して1,000倍もの効率向上を達成したと主張しています。もしこれが真実であれば、AI効率における根本的なブレークスルーを意味し、計算コストを比例して増加させることなく、はるかに大規模で高性能なモデルを可能にする可能性があります。
しかし、AI研究コミュニティは深い懐疑的な見方で応じています。著名な研究者数名は、このような劇的な改善は確立されたスケーリング則に挑戦するものであるとして、独立した検証を求めています。二次注意機構はトランスフォーマーにおける主要なボトルネックであり、多くのチームが品質を犠牲にせずにこれを克服しようと試みて失敗してきました。Subquadraticはまだ詳細な技術論文を公開しておらず、ピアレビューのためにモデルをオープンソース化もしていません。
スタートアップは、そのアプローチが表現力を失うことなく計算の複雑性を低減する新しい数学的定式化を使用していると主張しています。しかし、独立したベンチマークが公開されるまでは、これらの主張は証明されていません。もしSubquadraticがその結果を検証できれば、AI開発の経済性を再形成し、高度なモデルを小規模な組織でも利用可能にする可能性があります。現時点では、業界は慎重な関心を持って見守り、そのような飛躍が本当に可能であるという証拠を待っています。
