Presentamos NVIDIA Nemotron 3 Super 🎉 Modelo híbrido Mamba-Transformer MoE de 120B parámetros (12B activos) Contexto nativo de 1M tokens Diseñado para aplicaciones multi-agente de alta precisión y eficiencia computacional Además, pesos, conjuntos de datos y recetas completamente abiertos para una fácil personalización y despliegue. 🧵
Esta última incorporación a la familia Nemotron no es solo un Nano más grande. ✅ Hasta 5 veces más rendimiento y 2 veces más precisión que la versión anterior ✅ MoE latente que llama a 4 veces más especialistas expertos por el mismo costo de inferencia ✅ Predicción de múltiples tokens que reduce drásticamente el tiempo de generación ✅ Estructura híbrida Mamba-Transformer que ofrece 4 veces más eficiencia en memoria y computación ✅ Preentrenamiento NVFP4 nativo optimizado para NVIDIA Blackwell Consulta el análisis profundo sobre las decisiones arquitectónicas y los métodos de entrenamiento detrás del modelo 👇
🦞Estas innovaciones se unen para crear un modelo que es muy adecuado para agentes autónomos de larga duración. En PinchBench—un benchmark para evaluar LLMs como agentes de codificación de @OpenClaw—Nemotron 3 Super obtiene un 85.6% en toda la suite de pruebas, convirtiéndose en el mejor modelo abierto en su clase.
@openclaw “NVIDIA Nemotron 3 Super: El nuevo líder en inteligencia abierta y eficiente”
Artificial Analysis
Artificial AnalysisHace 12 horas
NVIDIA ha lanzado Nemotron 3 Super, un modelo de razonamiento de pesos abiertos de 120B (12B activos) que obtiene 36 en el Índice de Inteligencia de Análisis Artificial con una arquitectura híbrida Mamba-Transformer MoE. Se nos dio acceso a este modelo antes de su lanzamiento y lo evaluamos en términos de inteligencia, apertura y eficiencia de inferencia. Conclusiones clave ➤ Combina alta apertura con fuerte inteligencia: Nemotron 3 Super se desempeña de manera destacada para su tamaño y es sustancialmente más inteligente que cualquier otro modelo con una apertura comparable. ➤ Nemotron 3 Super obtuvo 36 en el Índice de Inteligencia de Análisis Artificial, 17 puntos por delante del lanzamiento anterior de Super y 12 puntos por delante de Nemotron 3 Nano. En comparación con modelos en una categoría de tamaño similar, esto lo coloca por delante de gpt-oss-120b (33), pero detrás del recientemente lanzado Qwen3.5 122B A10B (42). ➤ Enfocado en la inteligencia eficiente: encontramos que Nemotron 3 Super tiene una inteligencia superior a gpt-oss-120b mientras permite un ~10% más de rendimiento por GPU en una prueba de carga simple pero realista. ➤ Soportado hoy para inferencia sin servidor rápida: proveedores como @DeepInfra y @LightningAI están sirviendo este modelo en el lanzamiento con velocidades de hasta 484 tokens por segundo. Detalles del modelo 📝 Nemotron 3 Super tiene 120.6B en total y 12.7B de parámetros activos, junto con una ventana de contexto de 1 millón de tokens y soporte de razonamiento híbrido. Se publica con pesos abiertos y una licencia permisiva, junto con datos de entrenamiento abiertos y divulgación de metodología. 📐 El modelo tiene varias características de diseño que permiten una inferencia eficiente, incluyendo el uso de arquitecturas híbridas Mamba-Transformer y LatentMoE, predicción de múltiples tokens y pesos cuantizados NVFP4. 🎯 NVIDIA preentrenó Nemotron 3 Super en precisión (principalmente) NVFP4, pero se trasladó a BF16 para el post-entrenamiento. Nuestros puntajes de evaluación utilizan los pesos BF16. 🧠 Evaluamos Nemotron 3 Super en su modo de razonamiento de mayor esfuerzo ("regular"), el más capaz de los tres modos de inferencia del modelo (razonamiento apagado, bajo esfuerzo y regular).
@openclaw ✨ Nemotron 3 Super ya está disponible para los suscriptores Pro y Max de @Perplexity_ai en el menú desplegable del selector de modelos. También se puede utilizar a través de la API de Agent y Perplexity Computer.
253