Introductie van NVIDIA Nemotron 3 Super 🎉 Open 120B-parameter (12B actief) hybride Mamba-Transformer MoE-model Natuurlijke 1M-token context Gebouwd voor compute-efficiënte, hoge-precisie multi-agent toepassingen Bovendien, volledig open gewichten, datasets en recepten voor eenvoudige aanpassing en implementatie. 🧵
Deze nieuwste toevoeging aan de Nemotron-familie is niet zomaar een grotere Nano. ✅ Tot 5x hogere doorvoer en 2x nauwkeurigheid dan de vorige versie ✅ Latente MoE die 4x zoveel expert-specialisten oproept voor dezelfde inferentiekosten ✅ Multi-token voorspelling die de generatie tijd drastisch vermindert ✅ Hybride Mamba-Transformer backbone levert 4x verbeterde geheugen- en reken efficiëntie ✅ Native NVFP4 voortraining geoptimaliseerd voor NVIDIA Blackwell Bekijk de diepgaande analyse van de architectonische beslissingen en trainingsmethoden achter het model 👇
🦞Deze innovaties komen samen om een model te creëren dat goed geschikt is voor langdurige autonome agenten. Op PinchBench—een benchmark voor het evalueren van LLM's als @OpenClaw coderingsagenten—behaalt Nemotron 3 Super 85,6% over de volledige testreeks, waardoor het het beste open model in zijn klasse is.
@openclaw “NVIDIA Nemotron 3 Super: De nieuwe leider in open, efficiënte intelligentie”
Artificial Analysis
Artificial Analysis5 uur geleden
NVIDIA heeft Nemotron 3 Super uitgebracht, een 120B (12B actief) open gewichten redeneermodel dat 36 scoort op de Artificial Analysis Intelligence Index met een hybride Mamba-Transformer MoE-architectuur. We kregen toegang tot dit model voorafgaand aan de lancering en hebben het geëvalueerd op intelligentie, openheid en inferentie-efficiëntie. Belangrijkste punten ➤ Combineert hoge openheid met sterke intelligentie: Nemotron 3 Super presteert sterk voor zijn grootte en is aanzienlijk intelligenter dan elk ander model met vergelijkbare openheid. ➤ Nemotron 3 Super scoorde 36 op de Artificial Analysis Intelligence Index, +17 punten voor op de vorige Super-release en +12 punten ten opzichte van Nemotron 3 Nano. Vergeleken met modellen in een vergelijkbare groottecategorie plaatst dit het voor gpt-oss-120b (33), maar achter de recent uitgebrachte Qwen3.5 122B A10B (42). ➤ Gefocust op efficiënte intelligentie: we hebben ontdekt dat Nemotron 3 Super hogere intelligentie heeft dan gpt-oss-120b terwijl het ~10% hogere doorvoer per GPU mogelijk maakt in een eenvoudige maar realistische belastingstest. ➤ Vandaag ondersteund voor snelle serverloze inferentie: aanbieders zoals @DeepInfra en @LightningAI bieden dit model bij de lancering aan met snelheden tot 484 tokens per seconde. Modeldetails 📝 Nemotron 3 Super heeft 120,6B totaal en 12,7B actieve parameters, samen met een contextvenster van 1 miljoen tokens en hybride redeneersondersteuning. Het is gepubliceerd met open gewichten en een permissieve licentie, naast open trainingsdata en methodologie-openbaring. 📐 Het model heeft verschillende ontwerpeigenschappen die efficiënte inferentie mogelijk maken, waaronder het gebruik van hybride Mamba-Transformer en LatentMoE-architecturen, multi-token voorspelling en NVFP4-gequantiseerde gewichten. 🎯 NVIDIA heeft Nemotron 3 Super voorgetraind in (voornamelijk) NVFP4-precisie, maar is overgestapt op BF16 voor post-training. Onze evaluatiescores gebruiken de BF16-gewichten. 🧠 We hebben Nemotron 3 Super getest in zijn hoogste-inspanning redeneerstand ("regulier"), de meest capabele van de drie inferentiemodi van het model (redenaar-uit, lage-inspanning en regulier).
@openclaw ✨ Nemotron 3 Super is nu beschikbaar voor @Perplexity_ai Pro- en Max-abonnees in de modelselector. Het kan ook worden gebruikt via de Agent API en Perplexity Computer.
151