#PaperADay 6 LOKALE KENMERKUITWISSELING VOOR GENERALISATIE IN VERSTERKINGSLEER Er is een goede discussie over generalisatie, zowel in het algemeen (ha) als meer specifiek in RL, maar het idee dat wordt gepresenteerd is heel eenvoudig, en ik ga het een kans geven: CLOP: Kanaal-consistente lokale permutaties Gegeven een 3D-tensor (4D met batch), met een bepaalde kans op elke locatie, verwissel willekeurig de positie met een buur, waarbij alle kanalen als een eenheid worden verwisseld. Net als bij dropout vermindert dit overfitting door co-adaptatie, maar het zet geen kanalen op nul, het verplaatst ze gewoon. Ik ben het eens met het idee dat data-augmentatie in de latente ruimte efficiënter is voor generalisatie dan in de invoerruimte. Ze stellen voor om dit zo laag mogelijk in de ruimtelijke hiërarchie te doen, maar het zou waarschijnlijk geen goed idee zijn op een 2x2-niveau, waar er maar vier mogelijke permutaties zijn en elk daarvan de helft van de ruimtelijke informatie verstoort. Let op dat ze de kans op verwisseling per spel hebben afgestemd, wat over het algemeen niet wordt gedaan bij het rapporteren van resultaten over een reeks spellen. De resultaten op pure supervisie-leertaken waren niet opmerkelijk, maar zouden beter kunnen zijn met de CLOP op verschillende plaatsen en met verschillende trainingsrecepten.