Dupla descida mostra que a Crítica de Lucas só se aplica localmente. ou seja, o erro do modelo aumenta com mais parâmetros até certo ponto ("overfitting"), mas depois diminui com mais parâmetros. Foi um erro a economia simplificar modelos para supostamente fora do ajuste da amostra — continue assim!
Outro tema divertido de ML é o "grokking", em que os modelos mudam de overfitting para generalização de forma bastante abrupta. Se você está @alz_zyd_, acho que você diz que esse é o sinal de que o modelo é apenas um ser pensante e começa a entender
108,72K