Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Por que a refutação do Giovanni (Sr. Power Law) sobre o "expoente estável" à minha análise abaixo falha completamente...
O modelo de expoente constante é aninhado dentro do arcabouço de decaimento como o caso especial d = 0. Se o expoente fosse estável, o otimizador encontraria d = 0.
Não funciona. Na mediana, encontra-se d = 0,029.
Os dados tiveram todas as oportunidades de escolher "sem decaimento". Ela rejeitou.
Linear QR coloca a mediana em $117.716. Oito funções independentes de decaimento convergem em aproximadamente $101.000.
Essas não são 8 versões do mesmo modelo. Eles usam núcleos matemáticos completamente diferentes. O acordo deles é uma propriedade dos dados, não do método.
O expoente constante ultrapassa em aproximadamente $17.000 em relação a cada especificação de decaimento testada.
Mas aqui está o que torna isso hermético: no 1º Quantile, o mesmo modelo de decaimento encontra d efetivamente igual a zero. Todas as funções de decaimento colapsam para lineares no chão.
O método não impõe decadência. Ele descobre onde existe e não encontra nenhum onde não existe.
O teste de inclinações locais, log(P2/P1)/log(t2/t1), agrupa toda a distribuição. Mas a estrutura quantil mostra:
Abaixo da mediana: d < 0 (suporte acelerando) Acima da mediana: d > 0 (teto decaindo)
Faça uma média e eles cancelam. O "expoente estável" é o paradoxo de Simpson. O agregado esconde a estrutura.
Parcimônia não significa menos parâmetros. Isso significa que não há parâmetros desnecessários.
Um parâmetro confirmado por 8 especificações independentes, que se autovalida ao encontrar d = 0 no chão, não é desnecessário.
Um modelo que não pode representar uma característica dos dados não é mais simples. Está incompleto.
...

Melhores
Classificação
Favoritos
