Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análisis independiente de modelos de IA y proveedores de alojamiento: elija el mejor modelo y proveedor de API para su caso de uso
NVIDIA ha lanzado Nemotron 3 Super, un modelo de razonamiento de pesos abiertos de 120B (12B activos) que obtiene una puntuación 36 en el Índice de Inteligencia de Análisis Artificial con una arquitectura híbrida Mamba-Transformer MoE
Se nos dio acceso a este modelo antes del lanzamiento y lo evaluamos en términos de inteligencia, apertura y eficiencia de inferencia.
Puntos clave
➤ Combina alta apertura con una inteligencia fuerte: Nemotron 3 Super rinde muy bien para su tamaño y es sustancialmente más inteligente que cualquier otro modelo con apertura comparable
➤ Nemotron 3 Super obtuvo 36 puntos en el Índice de Inteligencia de Análisis Artificial, +17 puntos por delante del lanzamiento anterior de Super y +12 puntos respecto a Nemotron 3 Nano. Comparado con modelos de tamaño similar, esto lo sitúa por delante de gpt-oss-120b (33), pero por detrás del recientemente lanzado Qwen3.5 122B A10B (42).
➤ Centrado en la inteligencia eficiente: encontramos que Nemotron 3 Super tiene una inteligencia superior a la de gpt-oss-120b mientras permite un ~10% más de rendimiento por GPU en una prueba de carga simple pero realista
➤ Actualmente soportado para inferencia rápida sin servidor: proveedores como @DeepInfra y @LightningAI sirven este modelo en el lanzamiento con velocidades de hasta 484 tokens por segundo
Detalles del modelo
📝 Nemotron 3 Super tiene un total de 120,6 mil millones y 12,7 mil millones de parámetros activos, junto con una ventana de contexto de 1 millón de tokens y soporte para razonamiento híbrido. Se publica con peso abierto y una licencia permisiva, junto con datos abiertos de entrenamiento y divulgación metodológica
📐 El modelo cuenta con varias características de diseño que permiten una inferencia eficiente, incluyendo el uso de arquitecturas híbridas Mamba-Transformer y LatentMoE, la predicción multi-token y los pesos cuantizados NVFP4
🎯 NVIDIA preentrenaba Nemotron 3 Super en precisión (mayormente) NVFP4, pero pasó a BF16 para el postentrenamiento. Nuestras puntuaciones de evaluación utilizan los pesos BF16
🧠 Evaluamos Nemotron 3 Super en su modo de razonamiento de mayor esfuerzo ("regular"), el más capaz de los tres modos de inferencia del modelo (razonamiento, bajo esfuerzo y regular)

6.41K
Alibaba ha lanzado 4 nuevos modelos Qwen3.5, de 0,8B a 9B. El 9B (Razonamiento, 32 en el Índice de Inteligencia) es el modelo más inteligente bajo parámetros 10B, y el 4B (Razonamiento, 27) el más inteligente bajo 5B, pero ambos usan tokens de salida de 200M+ para ejecutar el Índice de Inteligencia
@Alibaba_Qwen ha ampliado la familia Qwen3.5 con cuatro modelos más pequeños y densos: el 9B (Razonamiento, 32 en el Índice de Inteligencia), 4B (Razonamiento, 27), 2B (Razonamiento, 16) y 0,8B (Razonamiento, 9). Estos complementan los modelos más grandes 397B, 27B, 122B A10B y 35B A3B lanzados a principios de este mes. Todos los modelos tienen licencia Apache 2.0, soportan contexto 262K, incluyen soporte visual nativo y utilizan el mismo enfoque híbrido de pensamiento/no pensamiento unificado que el resto de la familia Qwen3.5
Resultados clave de comparación para las variantes de razonamiento:
➤ El 9B y el 4B son los modelos más inteligentes en sus respectivas clases de tamaño, por delante de todos los demás modelos bajo parámetros 10B. Qwen3.5 9B (32) obtiene aproximadamente el doble de los modelos más cercanos por debajo del 10B: Falcon-H1R-7B (16) y NVIDIA Nemotron Nano 9B V2 (Reasoning, 15). Qwen3.5 4B (27) supera a todos estos a pesar de tener aproximadamente la mitad de los parámetros. Los cuatro modelos pequeños Qwen3.5 están en la frontera de Pareto en la tabla de Inteligencia vs. Parámetros Totales
➤ La generación Qwen3.5 representa un aumento material de inteligencia respecto a Qwen3 en todos los tamaños de modelo inferiores a 10B, con mayores ganancias a mayor número total de parámetros. Comparando variantes de razonamiento: Qwen3.5 9B (32) está 15 puntos por delante de Qwen3 VL 8B (17), el 4B (27) gana 9 puntos sobre Qwen3 4B 2507 (18), el 2B (16) está 3 puntos por delante de Qwen3 con 1.7B (estimado 13), y el 0.8B (9) gana 2,5 puntos frente a Qwen3 0.6B (6,5).
➤ Los cuatro modelos utilizan tokens de salida de 230-390M para ejecutar el Índice de Inteligencia, significativamente más que tanto los hermanos mayores Qwen3.5 como sus predecesores Qwen3. Qwen3.5 2B usaba tokens de salida ~390M, 4B ~240M, 0,8B ~230M y 9B ~260M. Para contextualizar, el mucho más grande Qwen3.5 27B usaba 98M y el buque insignia 397B usaba 86M. Estos conteos de tokens también superan a la mayoría de los modelos frontera: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) y GLM-5 Reasoning (109M)
➤ AA-Omnisciencia es una debilidad relativa, con tasas de alucinación del 80-82% para los 4B y 9B. Qwen3.5 4B obtiene una puntuación de -57 en AA-Omniscience con una tasa de alucinaciones del 80% y una precisión del 12,8%. Qwen3.5 9B obtiene -56 con un 82% de alucinaciones y un 14,7% de precisión. Estos son ligeramente mejores que sus predecesores Qwen3 (Qwen3 4B 2507: -61, 84% alucinaciones, 12,7% de precisión), con la mejora impulsada principalmente por tasas de alucinaciones más bajas que por mayor precisión.
➤ Los modelos Qwen3.5 sub-10B combinan alta inteligencia con visión nativa a una escala previamente no disponible. En MMMU-Pro (razonamiento multimodal), Qwen3.5 9B obtiene un 69,2% y 4B un 65,4%, por delante de Qwen3 VL 8B (56,6%), Qwen3 VL 4B (52,0%) y Ministral 3 8B (46,0%). El Qwen3.5 0.8B obtiene un 25,8%, lo cual es notable para un modelo por debajo de 1.000 millones
Otra información:
➤ Ventana de contexto: 262K tokens
➤ Licencia: Apache 2.0
➤ Cuantización: Los pesos nativos son BF16. Alibaba no ha lanzado cuantizaciones GPTQ-Int4 de primera mano para estos modelos pequeños, aunque sí lo ha hecho para los modelos más grandes de la familia Qwen3.5 lanzados anteriormente (27B, 35B-A3B, 122B-A10B, 397B-A17B). En cuantización de 4 bits, los cuatro modelos son accesibles en hardware de consumo
➤ Disponibilidad: En el momento de la publicación, no existen APIs serverless de primera mano ni de terceros que alojen estos modelos

9.87K
Populares
Ranking
Favoritas
