Představujeme NVIDIA Nemotron 3 Super 🎉 Otevřený hybridní model Mamba-Transformer MoE s parametrem 120B (12B aktivní) Nativní 1M-tokenový kontext Navrženo pro výpočetně efektivní, vysoce přesné multiagentní aplikace Navíc plně otevřené váhy, datové sady a recepty pro snadné přizpůsobení a nasazení. 🧵
Tento nejnovější přírůstek do rodiny Nemotronů není jen větší Nano. ✅ Až 5x vyšší propustnost a 2x přesnost než u předchozí verze ✅ Latentní MoE, které volá čtyřnásobně více odborných specialistů za stejnou cenu závěrů ✅ Multi-tokenová predikce, která dramaticky zkracuje dobu generování ✅ Hybridní páteř Mamba-Transformer přináší čtyřnásobně lepší paměť a výpočetní efektivitu ✅ Nativní předtrénování NVFP4 optimalizované pro NVIDIA Blackwell Podívejte se na podrobný pohled na architektonická rozhodnutí a metody trénování za modelem 👇
🦞Tyto inovace se spojují a vytvářejí model, který je dobře přizpůsoben dlouhodobě působícím autonomním agentům. Na PinchBench—benchmarku pro hodnocení LLM jako @OpenClaw programátorů—Nemotron 3 Super dosahuje 85,6 % v celé testovací sadě, což z něj činí nejlepší otevřený model ve své třídě.
@openclaw "NVIDIA Nemotron 3 Super: Nový lídr v otevřené, efektivní inteligenci"
Artificial Analysis
Artificial AnalysisPřed 7 h
NVIDIA vydala Nemotron 3 Super, model uvažování s otevřenými vahami 120B (12B aktivní), který dosahuje 36 bodů v indexu umělé analytické inteligence s hybridní architekturou Mamba-Transformer MoE K tomuto modelu jsme měli přístup před uvedením na trh a hodnotili jsme jej v oblasti inteligence, otevřenosti a efektivity inferencí. Klíčové poznatky ➤ Kombinuje vysokou otevřenost se silnou inteligencí: Nemotron 3 Super si na svou velikost vede velmi dobře a je výrazně inteligentnější než jakýkoli jiný model s podobnou otevřeností ➤ Nemotron 3 Super získal 36 bodů v Indexu umělé analýzy inteligence, což je o +17 bodů více než předchozí vydání Super a +12 bodů oproti Nemotronu 3 Nano. Ve srovnání s modely v podobné velikostní kategorii jej to řadí před GPT-oss-120b (33), ale za nedávno uvedený Qwen3.5 122B A10B (42). ➤ Zaměřeno na efektivní inteligenci: zjistili jsme, že Nemotron 3 Super má vyšší inteligenci než GPT-OSS-120b a zároveň umožňuje ~10 % vyšší propustnost na GPU v jednoduchém, ale realistickém zátěžovém testu ➤ Dnes podporováno pro rychlou serverless inferenci: poskytovatelé včetně @DeepInfra a @LightningAI poskytují tento model při spuštění rychlostí až 484 tokenů za sekundu Detaily modelu 📝 Nemotron 3 Super má celkem 120,6 miliard a 12,7 miliard aktivních parametrů, spolu s kontextovým oknem o kapacitě 1 milion tokenů a podporou hybridního uvažování. Je publikován s otevřenými váhami a permisivní licencí, spolu s otevřenými tréninkovými daty a zveřejňováním metodologie 📐 Model má několik návrhových prvků umožňujících efektivní inferenci, včetně využití hybridních architektur Mamba-Transformer a LatentMoE, predikce více tokenů a kvantovaných vah NVFP4 🎯 NVIDIA předtrénovala Nemotron 3 Super (většinou) v přesnosti NVFP4, ale po tréninku přešla na BF16. Naše hodnotící skóre používá váhy BF16 🧠 Porovnali jsme Nemotron 3 Super v jeho režimu s nejvyšší námahou uvažování ("běžný"), což je nejschopnější ze tří inferenčních režimů modelu (odvozování, nízkonákladový a pravidelný)
@openclaw ✨ Nemotron 3 Super je nyní dostupný pro předplatitele @Perplexity_ai Pro a Max v rozbalovacím menu výběru modelů. Lze jej také využívat prostřednictvím Agent API a Perplexity Computer.
165