Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Nezávislá analýza modelů AI a poskytovatelů hostingu - vyberte si nejlepší model a poskytovatele API pro váš případ použití
NVIDIA vydala Nemotron 3 Super, model uvažování s otevřenými vahami 120B (12B aktivní), který dosahuje 36 bodů v indexu umělé analytické inteligence s hybridní architekturou Mamba-Transformer MoE
K tomuto modelu jsme měli přístup před uvedením na trh a hodnotili jsme jej v oblasti inteligence, otevřenosti a efektivity inferencí.
Klíčové poznatky
➤ Kombinuje vysokou otevřenost se silnou inteligencí: Nemotron 3 Super si na svou velikost vede velmi dobře a je výrazně inteligentnější než jakýkoli jiný model s podobnou otevřeností
➤ Nemotron 3 Super získal 36 bodů v Indexu umělé analýzy inteligence, což je o +17 bodů více než předchozí vydání Super a +12 bodů oproti Nemotronu 3 Nano. Ve srovnání s modely v podobné velikostní kategorii jej to řadí před GPT-oss-120b (33), ale za nedávno uvedený Qwen3.5 122B A10B (42).
➤ Zaměřeno na efektivní inteligenci: zjistili jsme, že Nemotron 3 Super má vyšší inteligenci než GPT-OSS-120b a zároveň umožňuje ~10 % vyšší propustnost na GPU v jednoduchém, ale realistickém zátěžovém testu
➤ Dnes podporováno pro rychlou serverless inferenci: poskytovatelé včetně @DeepInfra a @LightningAI poskytují tento model při spuštění rychlostí až 484 tokenů za sekundu
Detaily modelu
📝 Nemotron 3 Super má celkem 120,6 miliard a 12,7 miliard aktivních parametrů, spolu s kontextovým oknem o kapacitě 1 milion tokenů a podporou hybridního uvažování. Je publikován s otevřenými váhami a permisivní licencí, spolu s otevřenými tréninkovými daty a zveřejňováním metodologie
📐 Model má několik návrhových prvků umožňujících efektivní inferenci, včetně využití hybridních architektur Mamba-Transformer a LatentMoE, predikce více tokenů a kvantovaných vah NVFP4
🎯 NVIDIA předtrénovala Nemotron 3 Super (většinou) v přesnosti NVFP4, ale po tréninku přešla na BF16. Naše hodnotící skóre používá váhy BF16
🧠 Porovnali jsme Nemotron 3 Super v jeho režimu s nejvyšší námahou uvažování ("běžný"), což je nejschopnější ze tří inferenčních režimů modelu (odvozování, nízkonákladový a pravidelný)

6,93K
Alibaba uvedla na trh 4 nové modely Qwen3.5 od 0,8B do 9B. 9B (Uvažování, 32 na Indexu inteligence) je nejinteligentnější model pod parametry 10B a model 4B (Uvažování, 27) je nejinteligentnější pod 5B, ale oba používají výstupní tokeny 200M+ pro provoz Indexu inteligence
@Alibaba_Qwen rozšířil rodinu Qwen3.5 o čtyři menší husté modely: 9B (Uvažování, 32 na Indexu inteligence), 4B (Uvažování, 27), 2B (Uvažování, 16) a 0,8B (Uvažování, 9). Tyto doplňují větší modely 397B, 27B, 122B A10B a 35B A3B, které byly uvedeny začátkem tohoto měsíce. Všechny modely jsou licencovány na Apache 2.0, podporují 262K kontext, obsahují nativní podporu vidění a používají stejný hybridní přístup jednotného myšlení a nemyšlení jako zbytek rodiny Qwen3.5
Klíčové výsledky benchmarkingu pro varianty uvažování:
➤ 9B a 4B jsou nejinteligentnější modely ve svých příslušných velikostních třídách, před všemi ostatními modely pod parametry 10B. Qwen3.5 9B (32) získává přibližně dvojnásobek skóre oproti dalším nejbližším modelům pod 10B: Falcon-H1R-7B (16) a NVIDIA Nemotron Nano 9B V2 (Reasoning, 15). Qwen3.5 4B (27) překonává všechny tyto body, přestože má zhruba polovinu parametrů. Všechny čtyři malé modely Qwen3.5 jsou na Pareto hranici v grafu Inteligence vs. Total Parameters
➤ Generace Qwen3.5 představuje nárůst materiální inteligence oproti Qwen3 ve všech modelech pod 10B, s většími zisky při vyšším celkovém počtu parametrů. Porovnávání variant uvažování: Qwen3.5 9B (32) je o 15 bodů před Qwen3 VL 8B (17), 4B (27) získává o 9 bodů oproti Qwen3 4B 2507 (18), 2B (16) je o 3 body před Qwen3 1,7B (odhadem 13) a 0.8B (9) získává o 2,5 bodu oproti Qwen3 0.6B (6.5).
➤ Všechny čtyři modely používají výstupní tokeny o hodnotě 230–390 milionů pro provoz Intelligence Indexu, což je výrazně více než větší sourozenci Qwen3.5 i předchůdci Qwen3. Qwen3.5 2B používalo ~390M výstupních tokenů, 4B ~240M, 0.8B ~230M a 9B ~260M. Pro kontext, mnohem větší Qwen3.5 27B používal 98M a vlajková loď 397B 86M. Tyto počty tokenů také převyšují většinu modelů Frontier: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) a GLM-5 Reasoning (109M)
➤ AA-Vševědoucnost je relativní slabina, s mírou halucinací 80–82 % u 4B a 9B. Qwen3.5 4B dosahuje skóre -57 na AA-Vševědoucnost s mírou halucinací 80 % a přesností 12,8 %. Qwen3.5 9B skóre -56 s 82% halucinací a 14,7% přesností. Tyto jsou o něco lepší než jejich předchůdci Qwen3 (Qwen3 4B 2507: -61, 84 % halucinace, 12,7 % přesnost), přičemž zlepšení je způsobeno především nižšími mírami halucinací, nikoli vyšší přesností.
➤ Modely Qwen3.5 pod 10B kombinují vysokou inteligenci s nativním viděním v měřítku, které dosud nebylo dostupné. Na MMMU-Pro (multimodální uvažování) Qwen3.5 9B dosahuje 69,2 % a 4B skóre 65,4 %, před Qwen3 VL 8B (56,6 %), Qwen3 VL 4B (52,0 %) a Ministral 3 8B (46,0 %). Qwen3.5 0.8B dosahuje skóre 25,8 %, což je pozoruhodné u modelu pod 1B
Další informace:
➤ Kontextové okno: 262K tokenů
➤ Licence: Apache 2.0
➤ Kvantizace: Nativní váhy jsou BF16. Alibaba nevydávala první strany kvantizace GPTQ-Int4 pro tyto malé modely, ale pro větší modely z rodiny Qwen3.5 vydaných dříve (27B, 35B-A3B, 122B-A10B, 397B-A17B) již ano. V 4bitové kvantizaci jsou všechny čtyři modely dostupné na spotřebitelském hardwaru
➤ Dostupnost: V době vydání neexistují serverless API od první strany ani třetích stran hostující tyto modely

9,93K
Top
Hodnocení
Oblíbené
