Model Update2026-05-07VentureBeat

Subquadratic Alega Ganho de Eficiência de IA de 1.000x, Pesquisadores Estão Céticos

A Subquadratic, uma startup sediada em Miami que acabou de sair do modo furtivo, está fazendo afirmações ousadas sobre seu novo modelo de IA, o SubQ. A empresa afirma que o SubQ alcança um impressionante ganho de eficiência de 1.000x em relação às arquiteturas de transformadores existentes, ao escapar da restrição de atenção quadrática que há muito limita a escalabilidade dos modelos. Se for verdade, isso representaria um avanço fundamental na eficiência da IA, potencialmente permitindo modelos muito maiores e mais capazes sem aumentos proporcionais nos custos computacionais. No entanto, a comunidade de pesquisa em IA respondeu com profundo ceticismo. Vários pesquisadores proeminentes pediram verificação independente, observando que uma melhoria tão dramática desafiaria leis de escalabilidade bem estabelecidas. O mecanismo de atenção quadrática é um gargalo central nos transformadores, e muitas equipes tentaram – e falharam – superá-lo sem sacrificar a qualidade. A Subquadratic ainda não publicou artigos técnicos detalhados nem disponibilizou seu modelo para revisão por pares como código aberto. A startup afirma que sua abordagem usa uma formulação matemática inovadora que reduz a complexidade computacional sem perder expressividade. Mas, até que benchmarks independentes sejam publicados, as alegações permanecem não comprovadas. Se a Subquadratic conseguir validar seus resultados, isso poderia remodelar a economia do desenvolvimento de IA, tornando modelos avançados acessíveis a organizações menores. Por enquanto, a indústria observa com interesse cauteloso, aguardando evidências de que tal salto é realmente possível.

Noticias relacionadas

Más noticias de IA

AIStart.ai · Tu Launchpad personal de IA

Noticia no encontrada | AIStart.ai