#PaperADay 6 PERTUKARAN FITUR LOKAL UNTUK GENERALISASI DALAM PEMBELAJARAN PENGUATAN Ada diskusi yang bagus tentang generalisasi, baik secara umum (ha) dan lebih khusus lagi di RL, tetapi ide yang disajikan sangat sederhana, dan saya akan mencobanya: CLOP: Permutasi lokal yang konsisten dengan saluran Diberikan tensor 3D (4D dengan batch), dengan beberapa probabilitas di setiap lokasi, secara acak menukar posisi dengan tetangga, menukar semua saluran sebagai satu kesatuan. Seperti dropout, ini mengurangi overfitting dengan adaptasi bersama, tetapi tidak membuat saluran apa pun keluar, itu hanya memindahkannya. Saya setuju dengan gagasan bahwa augmentasi data di ruang laten lebih efisien untuk generalisasi daripada di ruang input. Mereka menyarankan untuk melakukannya serendah mungkin dalam hierarki spasial, tetapi mungkin bukan ide yang baik pada tingkat 2x2, di mana hanya ada empat kemungkinan permutasi dan salah satu dari mereka mengganggu setengah informasi spasial. Perhatikan bahwa mereka menyetel peluang pertukaran per game, yang umumnya tidak dilakukan saat melaporkan hasil pada serangkaian game. Hasil pada tugas pembelajaran yang diawasi murni tidak patut diperhatikan, tetapi mungkin lebih baik dengan CLOP yang disisipkan di tempat yang berbeda dan dengan resep pelatihan yang berbeda.