Model Update2026-05-07
VentureBeat
Subquadratic behauptet 1.000-fache KI-Effizienzsteigerung, Forscher skeptisch
Subquadratic, ein in Miami ansässiges Startup, das gerade aus der Geheimhaltung hervorgegangen ist, macht kühne Behauptungen über sein neues KI-Modell SubQ. Das Unternehmen behauptet, dass SubQ eine atemberaubende 1.000-fache Effizienzsteigerung gegenüber bestehenden Transformer-Architekturen erzielt, indem es die quadratische Aufmerksamkeitsbeschränkung umgeht, die die Skalierbarkeit von Modellen lange Zeit begrenzt hat. Falls dies zutrifft, würde dies einen grundlegenden Durchbruch in der KI-Effizienz darstellen und möglicherweise viel größere und leistungsfähigere Modelle ermöglichen, ohne dass die Rechenkosten proportional steigen.
Die KI-Forschungsgemeinschaft hat jedoch mit tiefer Skepsis reagiert. Mehrere prominente Forscher haben eine unabhängige Überprüfung gefordert und darauf hingewiesen, dass eine derart dramatische Verbesserung gut etablierte Skalierungsgesetze in Frage stellen würde. Der quadratische Aufmerksamkeitsmechanismus ist ein zentraler Engpass in Transformatoren, und viele Teams haben versucht – und sind gescheitert – ihn zu überwinden, ohne Qualitätseinbußen hinzunehmen. Subquadratic hat noch keine detaillierten technischen Papiere veröffentlicht oder sein Modell zur Peer-Review als Open Source bereitgestellt.
Das Startup behauptet, sein Ansatz verwende eine neuartige mathematische Formulierung, die die Rechenkomplexität reduziert, ohne die Ausdruckskraft zu verlieren. Aber bis unabhängige Benchmarks veröffentlicht sind, bleiben die Behauptungen unbewiesen. Falls Subquadratic seine Ergebnisse validieren kann, könnte dies die Ökonomie der KI-Entwicklung neu gestalten und fortschrittliche Modelle für kleinere Organisationen zugänglich machen. Vorerst beobachtet die Branche dies mit vorsichtigem Interesse und wartet auf Beweise, dass ein solcher Sprung tatsächlich möglich ist.
