Jag misstänker att det mesta av det återstående mysteriet kring "AI-tolkbarhet", och det (enligt mig) nära relaterade om hjärntolkbarhet, bara handlar om att intuitivt förklara varför djupinlärning i högdimensionellt rum är så kraftfullt. Men de resulterande vikterna är bara som de är.