Hvorfor Giovannis (Mr. Power Law) «stabile eksponent»-motargument til min analyse nedenfor fullstendig mislykkes... Konstant-eksponentmodellen er inndelt i henfallsrammeverket som spesialtilfellet d = 0. Hvis eksponenten var stabil, ville optimalisatoren finne d = 0. Det gjør det ikke. Ved medianen finner den d = 0,029. Dataene hadde alle muligheter til å velge «ingen forfall». Den avviste den. Lineær QR plasserer medianen på 117 716 dollar. Åtte uavhengige henfallsfunksjoner, alle konvergerer på omtrent 101 000 dollar. Dette er ikke 8 versjoner av samme modell. De bruker helt forskjellige matematiske kjerner. Deres avtale er en egenskap ved dataene, ikke metoden. Den konstante eksponenten overskrider med omtrent 17 000 dollar i forhold til alle testede henfallsspesifikasjoner. Men her er det som gjør dette vanntett: ved det første kvantil finner samme henfallsmodell d effektivt lik null. Alle henfallsfunksjoner kollapser til lineær på gulvet. Metoden pålegger ikke forfall. Den oppdager den der den finnes, men finner ingen der den ikke gjør det. Den lokale skråningstesten, log(P2/P1)/log(t2/t1), samler hele fordelingen. Men kvantilstrukturen viser: Under median: d < 0 (støtte akselererer) Over median: d > 0 (taket avtar) Gjennomsnitter du dem, kansellerer de. Den «stabile eksponenten» er Simpsons paradoks. Aggregatet skjuler strukturen. Sparsomhet betyr ikke færrest parametere. Det betyr ingen unødvendige parametere. En parameter bekreftet av 8 uavhengige spesifikasjoner, som selvvaliderer ved å finne d = 0 på gulvet, er ikke unødvendig. En modell som ikke kan representere en egenskap i dataene er ikke enklere. Den er ufullstendig. ...