Open Source2026-03-19VentureBeat

El modelo de código abierto Mamba 3 supera la arquitectura Transformer

Un posible retador para el dominio prolongado del Transformer en la IA ha emergido con el lanzamiento del modelo de código abierto Mamba 3. Esta nueva arquitectura demuestra una mejora de casi un 4% en la eficiencia del modelado del lenguaje en comparación con los Transformers estándar. La innovación central de Mamba radica en su modelo de espacio de estados selectivo, que le permite procesar secuencias de manera más eficiente al enfocarse dinámicamente

Noticias relacionadas

Más noticias de IA

AIStart.ai · Tu página de inicio personal de IA