Open Source2026-03-19
VentureBeat
El modelo de código abierto Mamba 3 supera la arquitectura Transformer
Un posible retador para el dominio prolongado del Transformer en la IA ha emergido con el lanzamiento del modelo de código abierto Mamba 3. Esta nueva arquitectura demuestra una mejora de casi un 4% en la eficiencia del modelado del lenguaje en comparación con los Transformers estándar. La innovación central de Mamba radica en su modelo de espacio de estados selectivo, que le permite procesar secuencias de manera más eficiente al enfocarse dinámicamente
