Por qué la refutación de Giovanni (Sr. Power Law) sobre mi análisis a continuación falla completamente... El modelo de exponente constante está anidado dentro del marco de decaimiento como un caso especial d = 0. Si el exponente fuera estable, el optimizador encontraría d = 0. No lo hace. En la mediana, encuentra d = 0.029. Los datos tuvieron toda la oportunidad de elegir "sin decaimiento." Lo rechazaron. El QR lineal coloca la mediana en $117,716. Ocho funciones de decaimiento independientes, todas convergen en aproximadamente $101,000. No son 8 versiones del mismo modelo. Utilizan núcleos matemáticos completamente diferentes. Su acuerdo es una propiedad de los datos, no del método. El exponente constante sobreestima en aproximadamente $17,000 en relación con cada especificación de decaimiento probada. Pero aquí está lo que hace esto irrefutable: en el 1er cuartil, el mismo modelo de decaimiento encuentra d efectivamente igual a cero. Todas las funciones de decaimiento colapsan a lineales en el suelo. El método no impone decaimiento. Lo descubre donde existe y no encuentra nada donde no existe. La prueba de pendientes locales, log(P2/P1)/log(t2/t1), agrupa toda la distribución. Pero la estructura de cuartiles muestra: Por debajo de la mediana: d < 0 (apoyo acelerando) Por encima de la mediana: d > 0 (techo decayendo) Promédialos y se cancelan. El "exponente estable" es la paradoja de Simpson. El agregado oculta la estructura. La parsimonia no significa el menor número de parámetros. Significa no tener parámetros innecesarios. Un parámetro confirmado por 8 especificaciones independientes, que se valida a sí mismo al encontrar d = 0 en el suelo, no es innecesario. Un modelo que no puede representar una característica de los datos no es más simple. Es incompleto....