Por que a refutação do Giovanni (Sr. Power Law) sobre o "expoente estável" à minha análise abaixo falha completamente... O modelo de expoente constante é aninhado dentro do arcabouço de decaimento como o caso especial d = 0. Se o expoente fosse estável, o otimizador encontraria d = 0. Não funciona. Na mediana, encontra-se d = 0,029. Os dados tiveram todas as oportunidades de escolher "sem decaimento". Ela rejeitou. Linear QR coloca a mediana em $117.716. Oito funções independentes de decaimento convergem em aproximadamente $101.000. Essas não são 8 versões do mesmo modelo. Eles usam núcleos matemáticos completamente diferentes. O acordo deles é uma propriedade dos dados, não do método. O expoente constante ultrapassa em aproximadamente $17.000 em relação a cada especificação de decaimento testada. Mas aqui está o que torna isso hermético: no 1º Quantile, o mesmo modelo de decaimento encontra d efetivamente igual a zero. Todas as funções de decaimento colapsam para lineares no chão. O método não impõe decadência. Ele descobre onde existe e não encontra nenhum onde não existe. O teste de inclinações locais, log(P2/P1)/log(t2/t1), agrupa toda a distribuição. Mas a estrutura quantil mostra: Abaixo da mediana: d < 0 (suporte acelerando) Acima da mediana: d > 0 (teto decaindo) Faça uma média e eles cancelam. O "expoente estável" é o paradoxo de Simpson. O agregado esconde a estrutura. Parcimônia não significa menos parâmetros. Isso significa que não há parâmetros desnecessários. Um parâmetro confirmado por 8 especificações independentes, que se autovalida ao encontrar d = 0 no chão, não é desnecessário. Um modelo que não pode representar uma característica dos dados não é mais simples. Está incompleto. ...