Spiking av nevrale nettverk fra bunnen av oppnår 8 % nøyaktighet. ingen tilbakeforplantning eller SGD Jeg laget en genetisk hyperparameteroptimaliserer, og den kan nå i gjennomsnitt få 8 % nøyaktighet som er ~3 % over sjansen Lenke til kildekode med en detaljert video og markdown-forklaringer i kommentar Det starter også vanligvis lavere enn 5 % og forbedres sakte, og kan til slutt begynne å falle under 5 %, noe som får meg til å tro at det er glimt av læring som finner sted. Noen ganger er det stabilt rundt 7-8-9% i lang tid det er ingen backpropagation eller SGD. den lærer via STDP (spike timing dependent plasticity) og en belønningsmekanisme Hvert eksempel presenteres N mange ganger (500 i dette tilfellet) som produserer Spike-tog som fører til kvalifiseringsliste, på slutten av en tur basert på om svaret var riktig eller ikke, justerer vi vektene ved å bruke belønningen som multiplikator Spike-timing holder styr på sekvensen av nevronavfyringer og hvilke som var mer sannsynlig å ha ført til riktig svar Fortell meg hva du synes