Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análisis independiente de modelos de IA y proveedores de alojamiento: elija el mejor modelo y proveedor de API para su caso de uso
NVIDIA ha lanzado Nemotron 3 Super, un modelo de razonamiento de pesos abiertos de 120B (12B activos) que obtiene 36 en el Índice de Inteligencia de Análisis Artificial con una arquitectura híbrida Mamba-Transformer MoE.
Se nos dio acceso a este modelo antes de su lanzamiento y lo evaluamos en términos de inteligencia, apertura y eficiencia de inferencia.
Conclusiones clave
➤ Combina alta apertura con fuerte inteligencia: Nemotron 3 Super se desempeña de manera destacada para su tamaño y es sustancialmente más inteligente que cualquier otro modelo con una apertura comparable.
➤ Nemotron 3 Super obtuvo 36 en el Índice de Inteligencia de Análisis Artificial, 17 puntos por delante del lanzamiento anterior de Super y 12 puntos por delante de Nemotron 3 Nano. En comparación con modelos en una categoría de tamaño similar, esto lo coloca por delante de gpt-oss-120b (33), pero detrás del recientemente lanzado Qwen3.5 122B A10B (42).
➤ Enfocado en la inteligencia eficiente: encontramos que Nemotron 3 Super tiene una inteligencia superior a gpt-oss-120b mientras permite un ~10% más de rendimiento por GPU en una prueba de carga simple pero realista.
➤ Soportado hoy para inferencia sin servidor rápida: proveedores como @DeepInfra y @LightningAI están sirviendo este modelo en el lanzamiento con velocidades de hasta 484 tokens por segundo.
Detalles del modelo
📝 Nemotron 3 Super tiene 120.6B en total y 12.7B de parámetros activos, junto con una ventana de contexto de 1 millón de tokens y soporte de razonamiento híbrido. Se publica con pesos abiertos y una licencia permisiva, junto con datos de entrenamiento abiertos y divulgación de metodología.
📐 El modelo tiene varias características de diseño que permiten una inferencia eficiente, incluyendo el uso de arquitecturas híbridas Mamba-Transformer y LatentMoE, predicción de múltiples tokens y pesos cuantizados NVFP4.
🎯 NVIDIA preentrenó Nemotron 3 Super en precisión (principalmente) NVFP4, pero se trasladó a BF16 para el post-entrenamiento. Nuestros puntajes de evaluación utilizan los pesos BF16.
🧠 Evaluamos Nemotron 3 Super en su modo de razonamiento de mayor esfuerzo ("regular"), el más capaz de los tres modos de inferencia del modelo (razonamiento apagado, bajo esfuerzo y regular).

6,79K
Alibaba ha lanzado 4 nuevos modelos Qwen3.5 desde 0.8B hasta 9B. El 9B (Razonamiento, 32 en el Índice de Inteligencia) es el modelo más inteligente por debajo de 10B parámetros, y el 4B (Razonamiento, 27) el más inteligente por debajo de 5B, pero ambos utilizan más de 200M de tokens de salida para ejecutar el Índice de Inteligencia
@Alibaba_Qwen ha ampliado la familia Qwen3.5 con cuatro modelos densos más pequeños: el 9B (Razonamiento, 32 en el Índice de Inteligencia), 4B (Razonamiento, 27), 2B (Razonamiento, 16) y 0.8B (Razonamiento, 9). Estos complementan los modelos más grandes de 397B, 27B, 122B A10B y 35B A3B lanzados a principios de este mes. Todos los modelos tienen licencia Apache 2.0, soportan 262K de contexto, incluyen soporte nativo de visión y utilizan el mismo enfoque híbrido de pensamiento/no pensamiento unificado que el resto de la familia Qwen3.5
Resultados clave de benchmarking para las variantes de razonamiento:
➤ El 9B y el 4B son los modelos más inteligentes en sus respectivas clases de tamaño, por delante de todos los demás modelos por debajo de 10B parámetros. Qwen3.5 9B (32) puntúa aproximadamente el doble que los modelos más cercanos por debajo de 10B: Falcon-H1R-7B (16) y NVIDIA Nemotron Nano 9B V2 (Razonamiento, 15). Qwen3.5 4B (27) supera a todos estos a pesar de tener aproximadamente la mitad de los parámetros. Todos los cuatro modelos pequeños Qwen3.5 están en la frontera de Pareto del gráfico de Inteligencia vs. Total de Parámetros
➤ La generación Qwen3.5 representa un aumento material de inteligencia sobre Qwen3 en todos los tamaños de modelos por debajo de 10B, con mayores ganancias a mayores conteos de parámetros totales. Comparando variantes de razonamiento: Qwen3.5 9B (32) está 15 puntos por delante de Qwen3 VL 8B (17), el 4B (27) gana 9 puntos sobre Qwen3 4B 2507 (18), el 2B (16) está 3 puntos por delante de Qwen3 1.7B (estimado 13), y el 0.8B (9) gana 2.5 puntos sobre Qwen3 0.6B (6.5).
➤ Todos los cuatro modelos utilizan de 230 a 390M de tokens de salida para ejecutar el Índice de Inteligencia, significativamente más que tanto los hermanos más grandes de Qwen3.5 como los predecesores de Qwen3. Qwen3.5 2B utilizó ~390M de tokens de salida, 4B utilizó ~240M, 0.8B utilizó ~230M, y 9B utilizó ~260M. Para contexto, el mucho más grande Qwen3.5 27B utilizó 98M y el buque insignia de 397B utilizó 86M. Estos conteos de tokens también superan a la mayoría de los modelos de frontera: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) y GLM-5 Razonamiento (109M)
➤ AA-Omnisciencia es una debilidad relativa, con tasas de alucinación del 80-82% para el 4B y el 9B. Qwen3.5 4B puntúa -57 en AA-Omnisciencia con una tasa de alucinación del 80% y una precisión del 12.8%. Qwen3.5 9B puntúa -56 con 82% de alucinación y 14.7% de precisión. Estos son marginalmente mejores que sus predecesores de Qwen3 (Qwen3 4B 2507: -61, 84% de alucinación, 12.7% de precisión), con la mejora impulsada principalmente por tasas de alucinación más bajas en lugar de mayor precisión.
➤ Los modelos Qwen3.5 por debajo de 10B combinan alta inteligencia con visión nativa a una escala previamente no disponible. En MMMU-Pro (razonamiento multimodal), Qwen3.5 9B puntúa 69.2% y 4B puntúa 65.4%, por delante de Qwen3 VL 8B (56.6%), Qwen3 VL 4B (52.0%) y Ministral 3 8B (46.0%). El Qwen3.5 0.8B puntúa 25.8%, lo cual es notable para un modelo por debajo de 1B
Otra información:
➤ Ventana de contexto: 262K tokens
➤ Licencia: Apache 2.0
➤ Cuantización: Los pesos nativos son BF16. Alibaba no ha lanzado cuantizaciones GPTQ-Int4 de primera parte para estos modelos pequeños, aunque sí lo ha hecho para los modelos más grandes de la familia Qwen3.5 lanzados anteriormente (27B, 35B-A3B, 122B-A10B, 397B-A17B). En cuantización de 4 bits, los cuatro modelos son accesibles en hardware de consumo
➤ Disponibilidad: En el momento de la publicación, no hay APIs sin servidor de primera o tercera parte que alojen estos modelos.

9,92K
Parte superior
Clasificación
Favoritos
