Dlaczego rebuttal Giovanni'ego (Pana Prawa Mocy) dotyczący "stabilnego wykładnika" w mojej analizie poniżej całkowicie zawodzi... Model stałego wykładnika jest osadzony w ramach dekadencji jako szczególny przypadek d = 0. Gdyby wykładnik był stabilny, optymalizator znalazłby d = 0. Nie znajduje. W medianie znajduje d = 0.029. Dane miały każdą możliwość wyboru "braku dekadencji". Odrzuciły to. Linear QR ustawia medianę na 117 716 $. Osiem niezależnych funkcji dekadencji, wszystkie zbieżne na około 101 000 $. To nie są 8 wersji tego samego modelu. Używają zupełnie różnych rdzeni matematycznych. Ich zgodność jest właściwością danych, a nie metody. Stały wykładnik przeszacowuje o około 17 000 $ w porównaniu do każdej przetestowanej specyfikacji dekadencji. Ale oto, co czyni to niepodważalnym: w 1. kwartylu ten sam model dekadencji znajduje d efektywnie równe zeru. Wszystkie funkcje dekadencji zapadają się do liniowej na dnie. Metoda nie narzuca dekadencji. Odkrywa ją tam, gdzie istnieje, i nie znajduje jej tam, gdzie jej nie ma. Test lokalnych nachyleń, log(P2/P1)/log(t2/t1), łączy całą dystrybucję. Ale struktura kwantylowa pokazuje: Poniżej mediany: d < 0 (wsparcie przyspieszające) Powyżej mediany: d > 0 (sufit opadający) Średnia z nich się znosi. "Stabilny wykładnik" to paradoks Simpsona. Agregat ukrywa strukturę. Parsymonia nie oznacza najmniejszej liczby parametrów. Oznacza brak zbędnych parametrów. Parametr potwierdzony przez 8 niezależnych specyfikacji, który samoweryfikuje się, znajdując d = 0 na dnie, nie jest zbędny. Model, który nie może reprezentować cechy danych, nie jest prostszy. Jest niekompletny....