Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Introductie van NVIDIA Nemotron 3 Super 🎉
Open 120B-parameter (12B actief) hybride Mamba-Transformer MoE-model
Natuurlijke 1M-token context
Gebouwd voor compute-efficiënte, hoge-precisie multi-agent toepassingen
Bovendien, volledig open gewichten, datasets en recepten voor eenvoudige aanpassing en implementatie. 🧵
Deze nieuwste toevoeging aan de Nemotron-familie is niet zomaar een grotere Nano.
✅ Tot 5x hogere doorvoer en 2x nauwkeurigheid dan de vorige versie
✅ Latente MoE die 4x zoveel expert-specialisten oproept voor dezelfde inferentiekosten
✅ Multi-token voorspelling die de generatie tijd drastisch vermindert
✅ Hybride Mamba-Transformer backbone levert 4x verbeterde geheugen- en reken efficiëntie
✅ Native NVFP4 voortraining geoptimaliseerd voor NVIDIA Blackwell
Bekijk de diepgaande analyse van de architectonische beslissingen en trainingsmethoden achter het model 👇

🦞Deze innovaties komen samen om een model te creëren dat goed geschikt is voor langdurige autonome agenten.
Op PinchBench—een benchmark voor het evalueren van LLM's als @OpenClaw coderingsagenten—behaalt Nemotron 3 Super 85,6% over de volledige testreeks, waardoor het het beste open model in zijn klasse is.

@openclaw “NVIDIA Nemotron 3 Super: De nieuwe leider in open, efficiënte intelligentie”

5 uur geleden
NVIDIA heeft Nemotron 3 Super uitgebracht, een 120B (12B actief) open gewichten redeneermodel dat 36 scoort op de Artificial Analysis Intelligence Index met een hybride Mamba-Transformer MoE-architectuur.
We kregen toegang tot dit model voorafgaand aan de lancering en hebben het geëvalueerd op intelligentie, openheid en inferentie-efficiëntie.
Belangrijkste punten
➤ Combineert hoge openheid met sterke intelligentie: Nemotron 3 Super presteert sterk voor zijn grootte en is aanzienlijk intelligenter dan elk ander model met vergelijkbare openheid.
➤ Nemotron 3 Super scoorde 36 op de Artificial Analysis Intelligence Index, +17 punten voor op de vorige Super-release en +12 punten ten opzichte van Nemotron 3 Nano. Vergeleken met modellen in een vergelijkbare groottecategorie plaatst dit het voor gpt-oss-120b (33), maar achter de recent uitgebrachte Qwen3.5 122B A10B (42).
➤ Gefocust op efficiënte intelligentie: we hebben ontdekt dat Nemotron 3 Super hogere intelligentie heeft dan gpt-oss-120b terwijl het ~10% hogere doorvoer per GPU mogelijk maakt in een eenvoudige maar realistische belastingstest.
➤ Vandaag ondersteund voor snelle serverloze inferentie: aanbieders zoals @DeepInfra en @LightningAI bieden dit model bij de lancering aan met snelheden tot 484 tokens per seconde.
Modeldetails
📝 Nemotron 3 Super heeft 120,6B totaal en 12,7B actieve parameters, samen met een contextvenster van 1 miljoen tokens en hybride redeneersondersteuning. Het is gepubliceerd met open gewichten en een permissieve licentie, naast open trainingsdata en methodologie-openbaring.
📐 Het model heeft verschillende ontwerpeigenschappen die efficiënte inferentie mogelijk maken, waaronder het gebruik van hybride Mamba-Transformer en LatentMoE-architecturen, multi-token voorspelling en NVFP4-gequantiseerde gewichten.
🎯 NVIDIA heeft Nemotron 3 Super voorgetraind in (voornamelijk) NVFP4-precisie, maar is overgestapt op BF16 voor post-training. Onze evaluatiescores gebruiken de BF16-gewichten.
🧠 We hebben Nemotron 3 Super getest in zijn hoogste-inspanning redeneerstand ("regulier"), de meest capabele van de drie inferentiemodi van het model (redenaar-uit, lage-inspanning en regulier).

@openclaw ✨ Nemotron 3 Super is nu beschikbaar voor @Perplexity_ai Pro- en Max-abonnees in de modelselector. Het kan ook worden gebruikt via de Agent API en Perplexity Computer.
151
Boven
Positie
Favorieten
