Perché il "rebuttal" di Giovanni (Mr. Power Law) sul "stable exponent" alla mia analisi qui sotto fallisce completamente... Il modello a esponente costante è incluso all'interno del framework di decadimento come caso speciale d = 0. Se l'esponente fosse stabile, l'ottimizzatore troverebbe d = 0. Non lo fa. Alla mediana, trova d = 0.029. I dati hanno avuto ogni opportunità di scegliere "nessun decadimento". L'hanno rifiutato. Il QR lineare colloca la mediana a $117,716. Otto funzioni di decadimento indipendenti, tutte convergono su circa $101,000. Questi non sono 8 versioni dello stesso modello. Usano kernel matematici completamente diversi. La loro concordanza è una proprietà dei dati, non del metodo. L'esponente costante sovrastima di circa $17,000 rispetto a ogni specifica di decadimento testata. Ma ecco cosa rende questo inoppugnabile: al 1° quantile, lo stesso modello di decadimento trova d effettivamente uguale a zero. Tutte le funzioni di decadimento collassano a lineari al pavimento. Il metodo non impone decadimento. Lo scopre dove esiste e non trova nulla dove non esiste. Il test delle pendenze locali, log(P2/P1)/log(t2/t1), aggrega l'intera distribuzione. Ma la struttura quantilica mostra: Sotto la mediana: d < 0 (supporto accelerante) Sopra la mediana: d > 0 (soffitto in decadimento) Se li si media, si annullano. L'"esponente stabile" è il paradosso di Simpson. L'aggregato nasconde la struttura. La parsimonia non significa il minor numero di parametri. Significa nessun parametro non necessario. Un parametro confermato da 8 specifiche indipendenti, che si auto-valida trovando d = 0 al pavimento, non è non necessario. Un modello che non può rappresentare una caratteristica dei dati non è più semplice. È incompleto....