Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Analiza independentă a modelelor AI și a furnizorilor de găzduire - alegeți cel mai bun model și furnizor API pentru cazul dvs.
NVIDIA a lansat Nemotron 3 Super, un model de raționament cu greutăți deschise de 120B (12B active) care obține un scor 36 la Artificial Analysis Intelligence Index, cu o arhitectură MoE hibridă Mamba-Transformer
Ni s-a oferit acces la acest model înainte de lansare și l-am evaluat în funcție de inteligență, deschidere și eficiență a inferenței.
Concluzii cheie
➤ Combină deschidere ridicată cu inteligență puternică: Nemotron 3 Super performează puternic pentru dimensiunea sa și este substanțial mai inteligent decât orice alt model cu deschidere comparabilă
➤ Nemotron 3 Super a obținut 36 de puncte la Artificial Analysis Intelligence Index, cu +17 puncte peste lansarea anterioară a Super și cu +12 puncte față de Nemotron 3 Nano. Comparativ cu modelele dintr-o categorie de dimensiuni similare, acest lucru îl plasează înaintea gpt-oss-120b (33), dar în spatele recentului Qwen3.5 122B A10B (42).
➤ Axat pe inteligență eficientă: am constatat că Nemotron 3 Super are o inteligență mai mare decât gpt-oss-120b, permițând totodată un throughput de ~10% mai mare pe GPU într-un test de încărcare simplu, dar realist
➤ Suportat astăzi pentru inferență rapidă serverless: furnizorii precum @DeepInfra și @LightningAI servesc acest model la lansare, cu viteze de până la 484 de tokenuri pe secundă
Detalii despre model
📝 Nemotron 3 Super are 120,6 miliarde în total și 12,7 miliarde parametri activi, împreună cu o fereastră de context de 1 milion de tokenuri și suport pentru raționament hibrid. Este publicată cu greutăți deschise și o licență permisivă, alături de date deschise de antrenament și dezvăluire metodologică
📐 Modelul are mai multe caracteristici de design care permit inferențe eficiente, inclusiv utilizarea arhitecturilor hibride Mamba-Transformer și LatentMoE, predicția multi-token și ponderile cuantificate NVFP4
🎯 NVIDIA a pre-antrenat Nemotron 3 Super în (în mare parte) precizie NVFP4, dar a trecut la BF16 pentru post-antrenament. Scorurile noastre de evaluare folosesc ponderile BF16
🧠 Am evaluat Nemotron 3 Super în modul său de raționament cu cel mai mare efort ("regular"), cel mai capabil dintre cele trei moduri de inferență ale modelului (raționament-off, low-effort și regular)

6,4K
Alibaba a lansat 4 modele noi Qwen3.5, de la 0.8B la 9B. 9B (Raționament, 32 pe Indicele de Inteligență) este cel mai inteligent model sub parametrii 10B, iar 4B (Raționament, 27) cel mai inteligent sub 5B, dar ambele folosesc jetoane de ieșire de 200M+ pentru a rula Indicele de Inteligență
@Alibaba_Qwen a extins familia Qwen3.5 cu patru modele mai mici și dense: 9B (Raționament, 32 pe Indicele de Inteligență), 4B (Raționament, 27), 2B (Raționament, 16) și 0.8B (Raționament, 9). Acestea completează modelele mai mari 397B, 27B, 122B A10B și 35B A3B lansate la începutul acestei luni. Toate modelele sunt licențiate Apache 2.0, suportă context 262K, includ suport nativ pentru viziune și folosesc aceeași abordare hibridă unificată gândire/non-gândire ca restul familiei Qwen3.5
Rezultate cheie de benchmarking pentru variantele de raționament:
➤ 9B și 4B sunt cele mai inteligente modele la clasele lor de dimensiune respective, înaintea tuturor celorlalte modele sub parametrii 10B. Qwen3.5 9B (32) obține aproximativ dublul modelelor apropiate sub 10B: Falcon-H1R-7B (16) și NVIDIA Nemotron Nano 9B V2 (Reasoning, 15). Qwen3.5 4B (27) depășește toate acestea, deși are aproximativ jumătate din parametri. Toate cele patru modele mici Qwen3.5 se află pe frontiera Pareto a graficului Inteligență vs. Parametri Totali
➤ Generația Qwen3.5 reprezintă o creștere materială a inteligenței față de Qwen3 la toate dimensiunile modelelor sub 10B, cu câștiguri mai mari la un număr total mai mare de parametri. Comparând variantele de raționament: Qwen3.5 9B (32) este cu 15 puncte înaintea Qwen3 VL 8B (17), 4B (27) câștigă 9 puncte față de Qwen3 4B 2507 (18), 2B (16) este cu 3 puncte înaintea Qwen3 cu 1.7B (estimat 13), iar 0.8B (9) câștigă 2,5 puncte față de Qwen3 0.6B (6,5).
➤ Toate cele patru modele folosesc jetoane de ieșire de 230-390M pentru a rula Indicele de Inteligență, semnificativ mai mult decât frații mai mari Qwen3.5 și predecesorii Qwen3. Qwen3.5 2B folosea ~390M tokenuri de ieșire, 4B ~240M, 0.8B ~230M, iar 9B ~260M. Pentru context, mult mai marele Qwen3.5 27B folosea 98M, iar nava amiral 397B folosea 86M. Aceste număruri de jetoane depășesc și majoritatea modelelor frontier: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) și GLM-5 Reasoning (109M)
➤ AA-Omnisciența este o slăbiciune relativă, cu rate de halucinații de 80-82% pentru 4B și 9B. Qwen3.5 4B scor -57 la AA-Omniscience, cu o rată de halucinații de 80% și o acuratețe de 12,8%. Qwen3.5 9B scorul -56 cu 82% halucinații și 14,7% acuratețe. Acestea sunt marginal mai bune decât predecesorii lor Qwen3 (Qwen3 4B 2507: -61, 84% halucinații, 12,7% acuratețe), îmbunătățirea fiind determinată în principal de rate mai scăzute de halucinații, nu de o acuratețe mai mare.
➤ Modelele Qwen3.5 sub-10B combină inteligență ridicată cu vedere nativă la o scară anterior indisponibilă. Pe MMMU-Pro (raționament multimodal), Qwen3.5 9B obține 69,2%, iar 4B 65,4%, înaintea Qwen3 VL 8B (56,6%), Qwen3 VL 4B (52,0%) și Ministral 3 8B (46,0%). Qwen3.5 0.8B obține un scor de 25,8%, ceea ce este notabil pentru un model sub 1B
Alte informații:
➤ Fereastră de context: 262K jetoane
➤ Licență: Apache 2.0
➤ Cuantificare: Greutățile native sunt BF16. Alibaba nu a lansat cuantizări GPTQ-Int4 first-party pentru aceste modele mici, deși a făcut-o pentru modelele mai mari din familia Qwen3.5 lansate anterior (27B, 35B-A3B, 122B-A10B, 397B-A17B). În cuantizarea pe 4 biți, toate cele patru modele sunt accesibile pe hardware de consum
➤ Disponibilitate: La momentul publicării, nu există API-uri serverless first-party sau terțe care să găzduiască aceste modele

9,87K
Limită superioară
Clasament
Favorite
