Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Presentamos NVIDIA Nemotron 3 Super 🎉
Modelo híbrido Mamba-Transformer MoE de 120B parámetros (12B activos)
Contexto nativo de 1M tokens
Diseñado para aplicaciones multi-agente de alta precisión y eficiencia computacional
Además, pesos, conjuntos de datos y recetas completamente abiertos para una fácil personalización y despliegue. 🧵
Esta última incorporación a la familia Nemotron no es solo un Nano más grande.
✅ Hasta 5 veces más rendimiento y 2 veces más precisión que la versión anterior
✅ MoE latente que llama a 4 veces más especialistas expertos por el mismo costo de inferencia
✅ Predicción de múltiples tokens que reduce drásticamente el tiempo de generación
✅ Estructura híbrida Mamba-Transformer que ofrece 4 veces más eficiencia en memoria y computación
✅ Preentrenamiento NVFP4 nativo optimizado para NVIDIA Blackwell
Consulta el análisis profundo sobre las decisiones arquitectónicas y los métodos de entrenamiento detrás del modelo 👇

🦞Estas innovaciones se unen para crear un modelo que es muy adecuado para agentes autónomos de larga duración.
En PinchBench—un benchmark para evaluar LLMs como agentes de codificación de @OpenClaw—Nemotron 3 Super obtiene un 85.6% en toda la suite de pruebas, convirtiéndose en el mejor modelo abierto en su clase.

@openclaw “NVIDIA Nemotron 3 Super: El nuevo líder en inteligencia abierta y eficiente”

Hace 12 horas
NVIDIA ha lanzado Nemotron 3 Super, un modelo de razonamiento de pesos abiertos de 120B (12B activos) que obtiene 36 en el Índice de Inteligencia de Análisis Artificial con una arquitectura híbrida Mamba-Transformer MoE.
Se nos dio acceso a este modelo antes de su lanzamiento y lo evaluamos en términos de inteligencia, apertura y eficiencia de inferencia.
Conclusiones clave
➤ Combina alta apertura con fuerte inteligencia: Nemotron 3 Super se desempeña de manera destacada para su tamaño y es sustancialmente más inteligente que cualquier otro modelo con una apertura comparable.
➤ Nemotron 3 Super obtuvo 36 en el Índice de Inteligencia de Análisis Artificial, 17 puntos por delante del lanzamiento anterior de Super y 12 puntos por delante de Nemotron 3 Nano. En comparación con modelos en una categoría de tamaño similar, esto lo coloca por delante de gpt-oss-120b (33), pero detrás del recientemente lanzado Qwen3.5 122B A10B (42).
➤ Enfocado en la inteligencia eficiente: encontramos que Nemotron 3 Super tiene una inteligencia superior a gpt-oss-120b mientras permite un ~10% más de rendimiento por GPU en una prueba de carga simple pero realista.
➤ Soportado hoy para inferencia sin servidor rápida: proveedores como @DeepInfra y @LightningAI están sirviendo este modelo en el lanzamiento con velocidades de hasta 484 tokens por segundo.
Detalles del modelo
📝 Nemotron 3 Super tiene 120.6B en total y 12.7B de parámetros activos, junto con una ventana de contexto de 1 millón de tokens y soporte de razonamiento híbrido. Se publica con pesos abiertos y una licencia permisiva, junto con datos de entrenamiento abiertos y divulgación de metodología.
📐 El modelo tiene varias características de diseño que permiten una inferencia eficiente, incluyendo el uso de arquitecturas híbridas Mamba-Transformer y LatentMoE, predicción de múltiples tokens y pesos cuantizados NVFP4.
🎯 NVIDIA preentrenó Nemotron 3 Super en precisión (principalmente) NVFP4, pero se trasladó a BF16 para el post-entrenamiento. Nuestros puntajes de evaluación utilizan los pesos BF16.
🧠 Evaluamos Nemotron 3 Super en su modo de razonamiento de mayor esfuerzo ("regular"), el más capaz de los tres modos de inferencia del modelo (razonamiento apagado, bajo esfuerzo y regular).

@openclaw ✨ Nemotron 3 Super ya está disponible para los suscriptores Pro y Max de @Perplexity_ai en el menú desplegable del selector de modelos. También se puede utilizar a través de la API de Agent y Perplexity Computer.
253
Parte superior
Clasificación
Favoritos
