Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Neuromorficzne obliczenia fotonowe spotykają się z pamięcią analogową: eliminacja wąskiego gardła konwersji danych
Większość sprzętu AI działa na chipach elektronicznych, gdzie obliczenia są realizowane przez przesuwanie elektronów przez tranzystory. Jednak pojawia się rosnąca alternatywa: wykonywanie operacji sieci neuronowych za pomocą światła. W procesorach fotonowych mnożenia macierzy są realizowane poprzez kodowanie danych jako sygnałów optycznych i przesyłanie ich przez układy regulowanych rezonatorów mikringowych, z których każdy działa jako synaptyczna waga. Fizyka światła umożliwia ogromną równoległość i ultraniską latencję propagacji, obiecując prędkości i efektywności energetyczne, których elektronika sama w sobie nie może osiągnąć.
Jednak istnieje zaskakująco prozaiczne wąskie gardło: każda synaptyczna waga potrzebuje dedykowanego konwertera cyfrowo-analogowego (DAC), aby nieprzerwanie napędzać modulator, który ją koduje. Dla macierzy wag o rozmiarze n×n, to n² DAC-ów działających non-stop—nie do obliczeń, ale tylko do utrzymywania napięć w miejscu. Koszt energetyczny przesyłania danych między pamięcią cyfrową a obliczeniami analogowymi grozi zniweczeniem tych zalet, które czynią fotonikę atrakcyjną.
Sean Lam i współautorzy demonstrują eleganckie rozwiązanie: umieścić mały kondensator bezpośrednio na każdym modulatorze optycznym. Po naładowaniu, utrzymuje wagę bez potrzeby aktywnego DAC-a. DAC-i są następnie dzielone wzdłuż kolumn i aktywowane tylko wtedy, gdy wagi wymagają aktualizacji—skalując jako n zamiast n². Koncepcja ta, nazywana dynamiczną pamięcią analogową elektro-optyczną (DEOAM), jest wytwarzana na monolitycznym chipie fotonowym z krzemu w standardowym procesie foundry 90 nm, osiągając ponad 26× oszczędności energii w porównaniu do konwencjonalnych projektów.
Liczby eksperymentalne jasno przedstawiają kompromisy. Czas zapisu wynosi ~40–50 ns, czas utrzymania ~0.83 ms, energia na zapis ~56 pJ, a precyzja bitowa wynosi około 5.6 bitów. Utrzymanie zależy od padającej mocy optycznej—więcej światła oznacza więcej wycieków—tworząc bezpośrednie napięcie między jakością sygnału a czasem życia pamięci.
Aby zrozumieć, co te specyfikacje oznaczają dla rzeczywistych obciążeń, autorzy emulują trzywarstwową sieć neuronową na MNIST. Stosunek utrzymania do latencji sieci wynoszący zaledwie 100 wystarcza, aby utrzymać dokładność wnioskowania powyżej 90%. Sieci trenowane z uwzględnieniem wycieków stają się znacznie bardziej odporne—żywy przykład na to, jak trening uwzględniający sprzęt przynosi korzyści.
Ta sama zasada napędzająca obliczenia w pamięci elektronicznej—że przesuwanie danych kosztuje więcej energii niż obliczanie z nimi—ma zastosowanie również tutaj w hybrydowej dziedzinie elektro-optycznej. Większość dzisiejszych procesorów fotonowych może jedynie wykonywać wnioskowanie z wagami trenowanymi offline na GPU. DEOAM otwiera drogę do treningu online na chipie, gdzie sieć dostosowuje się nieprzerwanie do nowych danych i driftu sprzętowego.
Artykuł:

Najlepsze
Ranking
Ulubione
