#PaperADay 6 LOKAL FUNKTIONSUTBYTE FÖR GENERALISERING I FÖRSTÄRKNINGSINLÄRNING Det finns en bra diskussion om generalisering, både i allmänhet (ha) och mer specifikt i verkligheten, men idén som presenteras är väldigt enkel, och jag ska ge den ett försök: CLOP: Kanalkonsistente lokala permutationer Givet en 3D-tensor (4D med batch), med viss sannolikhet på varje plats, byter slumpmässigt position med en granne och byter alla kanaler som en enhet. Precis som dropout minskar detta överanpassning genom samanpassning, men det nollställer inga kanaler, det flyttar dem bara. Jag håller med om idén att dataförstärkning i det latenta utrymmet är mer effektivt för generalisering än i indatautrymmet. De föreslår att göra det så lågt i den rumsliga hierarkin som möjligt, men det skulle troligen inte vara en bra idé på 2x2-nivå, där det bara finns fyra möjliga permutationer och var och en av dem stör hälften av den rumsliga informationen. Observera att de justerade byteschansen per match, vilket vanligtvis inte görs när man rapporterar resultat i en uppsättning matcher. Resultaten på rena övervakade inlärningsuppgifter var inte anmärkningsvärda, men kan vara bättre med CLOP inlagd på olika ställen och med olika träningsrecept.