Por que a refutação de Giovanni (Sr. Power Law) ao meu análise abaixo sobre o "exponente estável" falha completamente... O modelo de expoente constante está aninhado dentro da estrutura de decaimento como o caso especial d = 0. Se o expoente fosse estável, o otimizador encontraria d = 0. Não encontra. Na mediana, encontra d = 0.029. Os dados tiveram toda a oportunidade de escolher "sem decaimento." Eles a rejeitaram. O QR linear coloca a mediana em $117,716. Oito funções de decaimento independentes, todas convergem para aproximadamente $101,000. Estas não são 8 versões do mesmo modelo. Elas usam núcleos matemáticos completamente diferentes. O seu acordo é uma propriedade dos dados, não do método. O expoente constante supera em aproximadamente $17,000 em relação a todas as especificações de decaimento testadas. Mas aqui está o que torna isso à prova de balas: no 1º Quantil, o mesmo modelo de decaimento encontra d efetivamente igual a zero. Todas as funções de decaimento colapsam para linear no piso. O método não impõe decaimento. Ele o descobre onde existe e não encontra onde não existe. O teste de inclinações locais, log(P2/P1)/log(t2/t1), agrupa toda a distribuição. Mas a estrutura do quantil mostra: Abaixo da mediana: d < 0 (apoio acelerando) Acima da mediana: d > 0 (teto decaindo) Média-os e eles se cancelam. O "exponente estável" é o paradoxo de Simpson. O agregado esconde a estrutura. A parcimônia não significa o menor número de parâmetros. Significa nenhum parâmetro desnecessário. Um parâmetro confirmado por 8 especificações independentes, que se valida ao encontrar d = 0 no piso, não é desnecessário. Um modelo que não pode representar uma característica dos dados não é mais simples. É incompleto....