Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análise independente de modelos de IA e provedores de hospedagem - escolha o melhor modelo e provedor de API para seu caso de uso
A NVIDIA lançou o Nemotron 3 Super, um modelo de raciocínio de pesos abertos de 120B (12B ativos) que pontua 36 no Índice de Inteligência de Análise Artificial, com uma arquitetura híbrida Mamba-Transformer MoE
Recebemos acesso a esse modelo antes do lançamento e o avaliamos em termos de inteligência, abertura e eficiência de inferência.
Principais lições
➤ Combina alta abertura com forte inteligência: Nemotron 3 Super tem desempenho excelente para seu tamanho e é substancialmente mais inteligente do que qualquer outro modelo com abertura comparável
➤ Nemotron 3 Super obteve 36 pontos no Índice de Inteligência de Análise Artificial, +17 pontos à frente do lançamento anterior do Super e +12 pontos do Nemotron 3 Nano. Comparado a modelos de tamanho semelhante, isso o coloca à frente do gpt-oss-120b (33), mas atrás do recentemente lançado Qwen3.5 122B A10B (42).
➤ Focado em inteligência eficiente: descobrimos que o Nemotron 3 Super tem inteligência maior que o gpt-oss-120b, permitindo ~10% maior de throughput por GPU em um teste de carga simples, mas realista
➤ Suportado hoje para inferência serverless rápida: provedores como @DeepInfra e @LightningAI estão atendendo esse modelo no lançamento com velocidades de até 484 tokens por segundo
Detalhes do modelo
📝 O Nemotron 3 Super tem 120,6 bilhões no total e 12,7 bilhões de parâmetros ativos, além de uma janela de contexto de 1 milhão de tokens e suporte a raciocínio híbrido. É publicado com volumes abertos e uma licença permissiva, juntamente com dados de treinamento abertos e divulgação metodológica
📐 O modelo possui várias características de design que permitem inferência eficiente, incluindo o uso de arquiteturas híbridas Mamba-Transformer e LatentMoE, previsão multi-token e pesos quantizados NVFP4
🎯 A NVIDIA pré-treinou o Nemotron 3 Super em precisão (quase) NVFP4, mas migrou para o BF16 para o pós-treinamento. Nossas pontuações de avaliação usam os pesos BF16
🧠 Fizemos benchmarks do Nemotron 3 Super em seu modo de raciocínio de maior esforço ("regular"), o mais capaz dos três modos de inferência do modelo (raciocínio, de baixo esforço e regular)

6,41K
A Alibaba lançou 4 novos modelos Qwen3.5, de 0,8B a 9B. O 9B (Raciocínio, 32 no Índice de Inteligência) é o modelo mais inteligente sob os parâmetros 10B, e o 4B (Raciocínio, 27) o mais inteligente sob 5B, mas ambos usam tokens de saída de 200M+ para rodar o Índice de Inteligência
@Alibaba_Qwen expandiu a família Qwen3.5 com quatro modelos menores e densos: o 9B (Raciocínio, 32 no Índice de Inteligência), 4B (Raciocínio, 27), 2B (Raciocínio, 16) e 0,8B (Raciocínio, 9). Esses complementam os modelos maiores 397B, 27B, 122B A10B e 35B A3B lançados no início deste mês. Todos os modelos são licenciados pelo Apache 2.0, suportam contexto 262K, incluem suporte nativo a visão e utilizam a mesma abordagem híbrida unificada de pensamento/não pensamento que o restante da família Qwen3.5
Principais resultados de benchmarking para as variantes de raciocínio:
➤ O 9B e o 4B são os modelos mais inteligentes em suas respectivas classes de tamanho, à frente de todos os outros modelos sob os parâmetros 10B. Qwen3.5 9B (32) pontua aproximadamente o dobro dos modelos mais próximos abaixo do 10B: Falcon-H1R-7B (16) e NVIDIA Nemotron Nano 9B V2 (Reasoning, 15). Qwen3.5 4B (27) supera todos esses pontos, apesar de ter cerca de metade dos parâmetros. Todos os quatro pequenos modelos Qwen3.5 estão na fronteira de Pareto do gráfico de Inteligência vs. Parâmetros Totais
➤ A geração Qwen3.5 representa um aumento de inteligência material em relação ao Qwen3 em todos os tamanhos de modelo abaixo de 10B, com ganhos maiores em contagens totais maiores de parâmetros. Comparando variantes de raciocínio: Qwen3.5 9B (32) está 15 pontos à frente do Qwen3 VL 8B (17), o 4B (27) ganha 9 pontos sobre Qwen3 4B 2507 (18), o 2B (16) está 3 pontos à frente do Qwen3 com 1,7 bilhão (estimado em 13), e o 0,8B (9) ganha 2,5 pontos sobre Qwen3 0,6B (6,5).
➤ Todos os quatro modelos usam tokens de saída de 230-390M para rodar o Índice de Inteligência, significativamente mais do que tanto os irmãos maiores Qwen3.5 quanto os predecessores Qwen3. Qwen3.5 2B usou ~390M tokens de saída, 4B usou ~240M, 0,8B usou ~230M e 9B usou ~260M. Para contextualizar, o muito maior Qwen3.5 27B usava 98M e o navio principal 397B usava 86M. Essas contagem de tokens também superam a maioria dos modelos frontier: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) e GLM-5 Reasoning (109M)
➤ AA-Oniciência é uma fraqueza relativa, com taxas de alucinação de 80-82% para os 4B e 9B. Qwen3.5 4B pontuação -57 em AA-Oniciência, com taxa de alucinação de 80% e precisão de 12,8%. Qwen3.5 9B nota -56 com 82% de alucinação e 14,7% de precisão. Esses são marginalmente melhores que seus predecessores Qwen3 (Qwen3 4B 2507: -61, 84% alucinações, 12,7% de precisão), com a melhoria impulsionada principalmente por taxas de alucinação mais baixas do que por maior precisão.
➤ Os modelos Qwen3.5 sub-10B combinam alta inteligência com visão nativa em uma escala antes inacessível. No MMMU-Pro (raciocínio multimodal), Qwen3.5 9B obtém 69,2% e 4B 65,4%, à frente de Qwen3 VL 8B (56,6%), Qwen3 VL 4B (52,0%) e Ministral 3 8B (46,0%). O Qwen3.5 0.8B pontua 25,8%, o que é notável para um modelo abaixo de 1 bilhão
Outras informações:
➤ Janela de contexto: 262K tokens
➤ Licença: Apache 2.0
➤ Quantização: Pesos nativos são BF16. A Alibaba não lançou quantizações GPTQ-Int4 de primeira mão para esses modelos pequenos, embora tenha lançado para os modelos maiores da família Qwen3.5 lançados anteriormente (27B, 35B-A3B, 122B-A10B, 397B-A17B). Na quantização de 4 bits, todos os quatro modelos são acessíveis em hardware de consumo
➤ Disponibilidade: No momento da publicação, não existem APIs serverless de primeira mão ou de terceiros hospedando esses modelos

9,87K
Melhores
Classificação
Favoritos
