Nevromorf fotonisk databehandling møter analogt minne: eliminering av flaskehalsen i datakonvertering De fleste AI-maskinvare kjører på elektroniske brikker hvor beregninger utføres ved å flytte elektroner gjennom transistorer. Men det finnes et økende alternativ: å utføre nevrale nettverksoperasjoner med lys. I fotoniske prosessorer utføres matrisemultiplikasjoner ved å kode data som optiske signaler og sende dem gjennom arrays av justerbare mikroringresonatorer, hver som fungerer som en synaptisk vekt. Fysikken bak lys muliggjør massiv parallellisme og ultralav-latens utbredelse, og lover hastigheter og energieffektivitet som elektronikk alene ikke kan matche. Likevel er det en overraskende hverdagslig flaskehals: hver synaptisk vekt trenger en dedikert digital-til-analog omformer (DAC) for kontinuerlig å drive modulatoren som koder den. For en vektmatrise av størrelse n×n, er det n² DAC-er som kjører nonstop – ikke for å beregne, men bare for å holde spenningene på plass. Energikostnaden ved å overføre data mellom digitalt minne og analog databehandling risikerer å oppheve nettopp de fordelene som gjør fotonikk attraktivt. Sean Lam og medforfatterne demonstrerer en elegant løsning: plasser en liten kondensator direkte på hver optisk modulator. Når den er ladet, holder den vekten uten å trenge DAC for å holde seg aktiv. DAC-er deles deretter langs kolonner og aktiveres kun når vekter må oppdateres—skalerer som n i stedet for n². Konseptet, kalt dynamisk elektro-optisk analogminne (DEOAM), produseres på en monolittisk silisiumfotonisk brikke i en standard 90 nm støperiprosess, og oppnår over 26× strømbesparelser sammenlignet med konvensjonelle design. De eksperimentelle tallene rammer inn avveiningene tydelig. Skrivetid er ~40–50 ns, retensjonstid ~0,83 ms, energi per skriving ~56 pJ, og bitpresisjon rundt 5,6 biter. Retensjon avhenger av innkommende optisk effekt—mer lys betyr mer lekkasje—noe som skaper en direkte spenning mellom signalkvalitet og minnelevetid. For å forstå hva disse spesifikasjonene betyr for reelle arbeidsbelastninger, emulerer forfatterne et tre-lags nevralt nettverk på MNIST. Et forhold mellom retensjon og nettverkslatens på bare 100 er tilstrekkelig for å holde slutningsnøyaktigheten over 90 %. Nettverk som trenes med lekkasjen inkludert, blir betydelig mer robuste – et levende eksempel på maskinvarebevisst trening som lønner seg. Det samme prinsippet som driver elektronisk databehandling i minnet—at det koster mer energi å flytte data enn å regne med det—gjelder her i et hybrid elektro-optisk domene. De fleste fotoniske prosessorer i dag kan bare gjøre slutninger med vekter som er trent offline på GPU-er. DEOAM åpner en vei mot on-chip, nettbasert trening hvor nettverket kontinuerlig tilpasser seg nye data og maskinvaredrift. Artikkel: