Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Perché il "rebuttal" di Giovanni (Mr. Power Law) sul "stable exponent" alla mia analisi qui sotto fallisce completamente...
Il modello a esponente costante è incluso all'interno del framework di decadimento come caso speciale d = 0. Se l'esponente fosse stabile, l'ottimizzatore troverebbe d = 0.
Non lo fa. Alla mediana, trova d = 0.029.
I dati hanno avuto ogni opportunità di scegliere "nessun decadimento". L'hanno rifiutato.
Il QR lineare colloca la mediana a $117,716. Otto funzioni di decadimento indipendenti, tutte convergono su circa $101,000.
Questi non sono 8 versioni dello stesso modello. Usano kernel matematici completamente diversi. La loro concordanza è una proprietà dei dati, non del metodo.
L'esponente costante sovrastima di circa $17,000 rispetto a ogni specifica di decadimento testata.
Ma ecco cosa rende questo inoppugnabile: al 1° quantile, lo stesso modello di decadimento trova d effettivamente uguale a zero. Tutte le funzioni di decadimento collassano a lineari al pavimento.
Il metodo non impone decadimento. Lo scopre dove esiste e non trova nulla dove non esiste.
Il test delle pendenze locali, log(P2/P1)/log(t2/t1), aggrega l'intera distribuzione. Ma la struttura quantilica mostra:
Sotto la mediana: d < 0 (supporto accelerante)
Sopra la mediana: d > 0 (soffitto in decadimento)
Se li si media, si annullano. L'"esponente stabile" è il paradosso di Simpson. L'aggregato nasconde la struttura.
La parsimonia non significa il minor numero di parametri. Significa nessun parametro non necessario.
Un parametro confermato da 8 specifiche indipendenti, che si auto-valida trovando d = 0 al pavimento, non è non necessario.
Un modello che non può rappresentare una caratteristica dei dati non è più semplice. È incompleto....

Principali
Ranking
Preferiti
