Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Presentiamo NVIDIA Nemotron 3 Super 🎉
Modello ibrido Mamba-Transformer MoE con 120 miliardi di parametri (12 miliardi attivi)
Contesto nativo di 1 milione di token
Progettato per applicazioni multi-agente ad alta efficienza computazionale e alta precisione
Inoltre, pesi, dataset e ricette completamente aperti per una facile personalizzazione e distribuzione. 🧵
Questa ultima aggiunta alla famiglia Nemotron non è solo un Nano più grande.
✅ Fino a 5 volte maggiore throughput e 2 volte più precisione rispetto alla versione precedente
✅ MoE latente che chiama 4 volte più specialisti esperti per lo stesso costo di inferenza
✅ Predizione multi-token che riduce drasticamente il tempo di generazione
✅ Struttura ibrida Mamba-Transformer che offre 4 volte maggiore efficienza in memoria e calcolo
✅ Pre-addestramento NVFP4 nativo ottimizzato per NVIDIA Blackwell
Dai un'occhiata all'analisi approfondita delle decisioni architettoniche e dei metodi di addestramento dietro il modello 👇

🦞Queste innovazioni si uniscono per creare un modello ben adatto per agenti autonomi a lungo termine.
Su PinchBench—un benchmark per valutare i LLM come agenti di codifica @OpenClaw—Nemotron 3 Super ottiene l'85,6% in tutto il test suite, rendendolo il miglior modello open nella sua categoria.

@openclaw “NVIDIA Nemotron 3 Super: Il nuovo leader nell'intelligenza aperta ed efficiente”

4 ore fa
NVIDIA ha rilasciato Nemotron 3 Super, un modello di ragionamento con pesi aperti da 120B (12B attivi) che ottiene 36 nell'Artificial Analysis Intelligence Index con un'architettura ibrida Mamba-Transformer MoE.
Ci è stato dato accesso a questo modello prima del lancio e lo abbiamo valutato in base a intelligenza, apertura ed efficienza di inferenza.
Punti chiave
➤ Combina alta apertura con forte intelligenza: Nemotron 3 Super si comporta bene per le sue dimensioni ed è sostanzialmente più intelligente di qualsiasi altro modello con apertura comparabile.
➤ Nemotron 3 Super ha ottenuto 36 nell'Artificial Analysis Intelligence Index, +17 punti rispetto al precedente rilascio Super e +12 punti rispetto a Nemotron 3 Nano. Rispetto ai modelli nella stessa categoria di dimensioni, questo lo colloca davanti a gpt-oss-120b (33), ma dietro al recentemente rilasciato Qwen3.5 122B A10B (42).
➤ Focalizzato su un'intelligenza efficiente: abbiamo trovato che Nemotron 3 Super ha un'intelligenza superiore a gpt-oss-120b, consentendo un throughput ~10% più elevato per GPU in un semplice ma realistico test di carico.
➤ Supportato oggi per un'inferenza serverless veloce: fornitori come @DeepInfra e @LightningAI stanno servendo questo modello al lancio con velocità fino a 484 token al secondo.
Dettagli del modello
📝 Nemotron 3 Super ha 120.6B parametri totali e 12.7B parametri attivi, insieme a una finestra di contesto di 1 milione di token e supporto per ragionamento ibrido. È pubblicato con pesi aperti e una licenza permissiva, insieme a dati di addestramento aperti e divulgazione della metodologia.
📐 Il modello ha diverse caratteristiche di design che consentono un'inferenza efficiente, tra cui l'uso di architetture ibride Mamba-Transformer e LatentMoE, previsione multi-token e pesi quantizzati NVFP4.
🎯 NVIDIA ha pre-addestrato Nemotron 3 Super in precisione (per lo più) NVFP4, ma è passato a BF16 per il post-addestramento. I nostri punteggi di valutazione utilizzano i pesi BF16.
🧠 Abbiamo confrontato Nemotron 3 Super nella sua modalità di ragionamento a massimo sforzo ("regolare"), la più capace delle tre modalità di inferenza del modello (ragionamento disattivato, basso sforzo e regolare).

@openclaw ✨ Nemotron 3 Super è ora disponibile per gli abbonati Pro e Max di @Perplexity_ai nel menu a discesa del selettore di modelli. Può anche essere utilizzato tramite l'API Agent e Perplexity Computer.
98
Principali
Ranking
Preferiti
