Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Przedstawiamy NVIDIA Nemotron 3 Super 🎉
Otwarty model hybrydowy Mamba-Transformer MoE z 120 miliardami parametrów (12 miliardów aktywnych)
Natywne konteksty 1M-tokenów
Stworzony z myślą o wydajnych obliczeniowo, wysokiej dokładności aplikacjach wieloagentowych
Dodatkowo, w pełni otwarte wagi, zbiory danych i przepisy do łatwej personalizacji i wdrożenia. 🧵
To najnowsze uzupełnienie rodziny Nemotron to nie tylko większy Nano.
✅ Do 5x wyższa przepustowość i 2x dokładność w porównaniu do poprzedniej wersji
✅ Latent MoE, który angażuje 4x więcej specjalistów ekspertów za tę samą cenę wnioskowania
✅ Prognozowanie wielo-tokenowe, które dramatycznie skraca czas generacji
✅ Hybrydowy szkielet Mamba-Transformer zapewnia 4x lepszą efektywność pamięci i obliczeń
✅ Rodzime pretrenowanie NVFP4 zoptymalizowane dla NVIDIA Blackwell
Zobacz szczegółowe omówienie decyzji architektonicznych i metod szkoleniowych stojących za modelem 👇

🦞Te innowacje łączą się, aby stworzyć model, który jest dobrze dopasowany do długoterminowych autonomicznych agentów.
Na PinchBench—benchmarku do oceny LLM jako agentów kodujących @OpenClaw—Nemotron 3 Super uzyskuje wynik 85,6% w całym zestawie testów, co czyni go najlepszym otwartym modelem w swojej klasie.

@openclaw „NVIDIA Nemotron 3 Super: Nowy lider w otwartej, efektywnej inteligencji”

5 godz. temu
NVIDIA wydało model Nemotron 3 Super, model rozumowania o otwartych wagach z 120B (12B aktywnych), który uzyskał wynik 36 w Indeksie Sztucznej Analizy Inteligencji z hybrydową architekturą Mamba-Transformer MoE.
Mieliśmy dostęp do tego modelu przed premierą i oceniliśmy go pod kątem inteligencji, otwartości i efektywności wnioskowania.
Kluczowe wnioski
➤ Łączy wysoką otwartość z silną inteligencją: Nemotron 3 Super osiąga dobre wyniki jak na swój rozmiar i jest znacznie bardziej inteligentny niż jakikolwiek inny model o porównywalnej otwartości.
➤ Nemotron 3 Super uzyskał wynik 36 w Indeksie Sztucznej Analizy Inteligencji, o 17 punktów wyżej niż poprzednia wersja Super i o 12 punktów wyżej niż Nemotron 3 Nano. W porównaniu do modeli w podobnej kategorii rozmiarowej, plasuje się przed gpt-oss-120b (33), ale za niedawno wydanym Qwen3.5 122B A10B (42).
➤ Skoncentrowany na efektywnej inteligencji: stwierdziliśmy, że Nemotron 3 Super ma wyższą inteligencję niż gpt-oss-120b, jednocześnie umożliwiając ~10% wyższą przepustowość na GPU w prostym, ale realistycznym teście obciążeniowym.
➤ Wsparcie dla szybkiego wnioskowania bezserwerowego: dostawcy, w tym @DeepInfra i @LightningAI, oferują ten model od momentu premiery z prędkościami do 484 tokenów na sekundę.
Szczegóły modelu
📝 Nemotron 3 Super ma 120,6B całkowitych i 12,7B aktywnych parametrów, a także okno kontekstowe o długości 1 miliona tokenów i wsparcie dla hybrydowego rozumowania. Jest publikowany z otwartymi wagami i liberalną licencją, obok otwartych danych treningowych i ujawnienia metodologii.
📐 Model ma kilka cech projektowych umożliwiających efektywne wnioskowanie, w tym wykorzystanie hybrydowych architektur Mamba-Transformer i LatentMoE, prognozowanie wielotokenowe oraz zquantyzowane wagi NVFP4.
🎯 NVIDIA wstępnie wytrenowało Nemotron 3 Super w (głównie) precyzji NVFP4, ale przeszło na BF16 po treningu. Nasze oceny wykorzystują wagi BF16.
🧠 Przeprowadziliśmy benchmark Nemotron 3 Super w jego trybie rozumowania o najwyższym wysiłku ("regular"), najbardziej zdolnym z trzech trybów wnioskowania modelu (rozumowanie wyłączone, niski wysiłek i regularny).

@openclaw ✨ Nemotron 3 Super jest teraz dostępny dla subskrybentów @Perplexity_ai Pro i Max w rozwijanym menu wyboru modelu. Może być również używany przez Agent API i Perplexity Computer.
117
Najlepsze
Ranking
Ulubione
