El doble descenso muestra que la Crítica de Lucas solo se aplica localmente. Es decir, el error del modelo aumenta con más parámetros hasta un punto ("sobreajuste"), pero luego disminuye con más parámetros. Fue un error que la economía simplificara los modelos para supuestos ajustes fuera de la muestra — ¡sigue adelante!
Otro tema divertido de ML es el "grokking", en el que los modelos pasan de sobreajustar a generalizar de forma bastante abrupta. Si eres @alz_zyd_, supongo que dices que esto es la señal de que el modelo es solo un ser pensante y empieza a entender
108.71K