#PaperADay 6 INTERCAMBIO DE CARACTERÍSTICAS LOCALES PARA GENERALIZACIÓN EN APRENDIZAJE POR REFUERZO Hay una buena discusión sobre la generalización, tanto en general (ja) como más específicamente en RL, pero la idea que se presenta es muy sencilla, y voy a intentarlo: CLOP: Permutaciones locales consistentes en el canal Dado un tensor 3D (4D con lote), con cierta probabilidad en cada ubicación, intercambia aleatoriamente la posición con un vecino, intercambiando todos los canales como una unidad. Como el dropout, esto reduce el sobreajuste por coadaptación, pero no pone canales a cero, solo los mueve. Estoy de acuerdo con la idea de que la ampliación de datos en el espacio latente es más eficiente para la generalización que en el espacio de entrada. Sugieren hacerlo lo más bajo posible en la jerarquía espacial, pero probablemente no sería buena idea a nivel 2x2, donde solo hay cuatro permutaciones posibles y cualquiera de ellas altera la mitad de la información espacial. Ten en cuenta que ajustaron la probabilidad de intercambio por partida, algo que generalmente no se hace al informar resultados de una suite de juegos. Los resultados en tareas de aprendizaje supervisado puro no fueron destacables, pero podrían ser mejores con el CLOP insertado en diferentes lugares y con distintas recetas de entrenamiento.