Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NVIDIA har släppt Nemotron 3 Super, en 120B (12B aktiv) öppen viktbaserad resonemangsmodell som får 36 poäng på Artificial Analysis Intelligence Index med en hybrid Mamba-Transformer MoE-arkitektur
Vi fick tillgång till denna modell före lansering och utvärderade den utifrån intelligens, öppenhet och inferenseffektivitet.
Viktiga insikter
➤ Kombinerar hög öppenhet med stark intelligens: Nemotron 3 Super presterar starkt för sin storlek och är avsevärt mer intelligent än någon annan modell med jämförbar öppenhet
➤ Nemotron 3 Super fick 36 poäng på Artificial Analysis Intelligence Index, +17 poäng före den tidigare Super-utgåvan och +12 poäng från Nemotron 3 Nano. Jämfört med modeller i en liknande storlekskategori placerar detta den före gpt-oss-120b (33), men bakom den nyligen lanserade Qwen3.5 122B A10B (42).
➤ Fokuserad på effektiv intelligens: vi fann att Nemotron 3 Super hade högre intelligens än gpt-oss-120b samtidigt som den möjliggjorde ~10 % högre genomströmning per GPU i ett enkelt men realistiskt belastningstest
➤ Stöds idag för snabb serverless inferens: leverantörer inklusive @DeepInfra och @LightningAI levererar denna modell vid lansering med hastigheter på upp till 484 tokens per sekund
Modelldetaljer
📝 Nemotron 3 Super har totalt 120,6 miljarder och 12,7 miljarder aktiva parametrar, tillsammans med ett kontextfönster på 1 miljon tokens och stöd för hybridt resonemang. Den publiceras med öppna vikter och en tillåtande licens, tillsammans med öppen träningsdata och metodologi
📐 Modellen har flera designfunktioner som möjliggör effektiv inferens, inklusive användning av hybrida Mamba-Transformer- och LatentMoE-arkitekturer, multi-token-prediktion och NVFP4-kvantiserade vikter
🎯 NVIDIA förtränade Nemotron 3 Super i (för det mesta) NVFP4-precision, men gick över till BF16 för efterträning. Våra utvärderingspoäng använder BF16-vikterna
🧠 Vi jämförde Nemotron 3 Super i dess mest ansträngningsinriktade resonemangsläge ("vanligt"), det mest kapabla av modellens tre inferenslägen (resonerande av, lågansträngning och vanlig)

NVIDIA släppte betydande data före och efter träning tillsammans med nya omfattande träningsrecept för denna modell. Dessa avslöjanden når 83 på Artificial Analysis Openness Index, endast bakom mycket öppna modeller från Ai2 och MBZUAI, och placerar Nemotron 3 Super i den mest attraktiva kvadranten för öppenhet och intelligens bland kollegor.
Nemotron 3 Super är utan tvekan den mest intelligenta modellen som någonsin släppts med denna nivå av öppenhet.

Nemotron 3 Super använde ett relativt stort antal tokens i våra utvärderingar. Den använde 110 miljoner utdatatoken för att köra utvärderingar av Artificial Analysis Intelligence Index – detta är cirka 40 % mer än gpt-oss-120b med hög resonemangsinsats, men en ~20 % minskning jämfört med Nemotron 3 Nano.
Det är betydligt färre tokens än Anthropics Claude Opus 4.6 (max), som använde 160 miljoner tokens, och något färre än OpenAI:s GPT-5.4 (xhigh), som använde 120 miljoner tokens.

Med totalt 120 miljarder och 12 miljarder aktiva parametrar är Nemotron 3 Super fortfarande relativt liten jämfört med andra nyligen släppta öppna viktmodeller från ledande globala laboratorier — GLM-5 (totalt 744 miljarder, 40 miljarder aktiva), Qwen3.5 397B A17B (397 miljarder totalt, 17 miljarder aktiva) och Kimi K2.5 (totalt 1 T, 32 miljarder aktiva) är var och en 3 till 8 gånger större.

NVIDIA fokuserar på effektiv intelligens för Nemotron-familjen, och vi testade inferensprestanda mot peermodeller för att se vilken arkitekturval påverkade.
Vi körde självhostade genomströmningstester över en rad peermodeller med en enkel metodik med arbetsbelastningar som representerar vanliga användningsfall såsom agentiska arbetsflöden med måttlig historik, RAG-applikationer eller dokumentbehandling.
I detta test visar Nemotron 3 Super (NVFP4) 11 % högre genomströmning per NVIDIA B200 GPU än gpt-oss-120b (MXFP4), vilket placerar Nemotron 3 Super 'höger och höger' jämfört med gpt-oss-120b. Qwen3.5 122B A10B uppnår +6 poäng på Intelligence Index jämfört med Nemotron 3 Super, men med 40 % lägre genomströmning per GPU.
Våra intelligensindexpoäng för Nemotron 3 Super utvärderades utifrån BF16-vikterna. Vi har ännu inte bedömt om NVFP4-kvantiseringen har någon intelligenspåverkan, men NVIDIAs interna tester visade att NVFP4-modellen uppnådde 99,8 % mediannoggrannhet jämfört med BF16-baslinjen.
För mer information om vår testuppsättning och modellkonfigurationer, se vår artikel om Nemotron 3 Super:


Nemotron 3 Super kommer att finnas tillgängligt från sin lansering på serverlösa API:er från leverantörer som Lightning AI och DeepInfra.
Vi testade dessa endpoints och ser prestanda på upp till 484 tokens per sekund på våra standardarbetsbelastningar för 10k token.
Vid lanseringen ligger Nemotron 3 Super i den mest attraktiva kvadranten vad gäller intelligens och utmatningshastighet bland jämförbara konkurrenter.

6,38K
Topp
Rankning
Favoriter
