Neuromorphe photonische Berechnungen treffen auf analoge Speicher: Beseitigung des Datenkonvertierungsengpasses Die meisten KI-Hardware läuft auf elektronischen Chips, bei denen Berechnungen durch das Bewegen von Elektronen durch Transistoren durchgeführt werden. Aber es gibt eine wachsende Alternative: die Durchführung von neuronalen Netzwerkoperationen mit Licht. In photonischen Prozessoren werden Matrixmultiplikationen ausgeführt, indem Daten als optische Signale codiert und durch Arrays von einstellbaren Mikroringresonatoren geleitet werden, die jeweils als synaptisches Gewicht fungieren. Die Physik des Lichts ermöglicht massive Parallelität und ultraniedrige Latenzpropagation, was Geschwindigkeiten und Energieeffizienzen verspricht, die Elektronik allein nicht erreichen kann. Dennoch gibt es einen überraschend banalen Engpass: Jedes synaptische Gewicht benötigt einen speziellen Digital-Analog-Wandler (DAC), um den Modulator, der es codiert, kontinuierlich zu betreiben. Für eine Gewichtsmatrix der Größe n×n sind das n² DACs, die ununterbrochen laufen – nicht um zu berechnen, sondern nur um Spannungen zu halten. Die Energiekosten für den Transport von Daten zwischen digitalem Speicher und analoger Berechnung riskieren, die Vorteile, die Photonik attraktiv machen, zu negieren. Sean Lam und Mitautoren demonstrieren eine elegante Lösung: einen winzigen Kondensator direkt auf jeden optischen Modulator zu platzieren. Einmal aufgeladen, hält er das Gewicht, ohne dass ein DAC aktiv bleiben muss. DACs werden dann entlang der Spalten geteilt und nur aktiviert, wenn Gewichte aktualisiert werden müssen – was als n und nicht als n² skaliert. Das Konzept, genannt dynamischer elektro-optischer analoger Speicher (DEOAM), wird auf einem monolithischen siliziumphotonischen Chip in einem Standardprozess von 90 nm gefertigt und erreicht über 26× Energieeinsparungen im Vergleich zu herkömmlichen Designs. Die experimentellen Zahlen verdeutlichen die Kompromisse klar. Schreibzeit beträgt ~40–50 ns, Haltezeit ~0,83 ms, Energie pro Schreibvorgang ~56 pJ und Bitgenauigkeit etwa 5,6 Bits. Die Haltezeit hängt von der einfallenden optischen Leistung ab – mehr Licht bedeutet mehr Leckage – was eine direkte Spannung zwischen Signalqualität und Lebensdauer des Speichers schafft. Um zu verstehen, was diese Spezifikationen für reale Arbeitslasten bedeuten, emulieren die Autoren ein dreischichtiges neuronales Netzwerk auf MNIST. Ein Verhältnis von Haltezeit zu Netzwerk-Latenz von nur 100 reicht aus, um die Inferenzgenauigkeit über 90 % zu halten. Netzwerke, die mit der Leckage trainiert wurden, werden erheblich robuster – ein lebendiges Beispiel dafür, dass hardwarebewusstes Training sich auszahlt. Dasselbe Prinzip, das die elektronische In-Memory-Berechnung antreibt – dass das Bewegen von Daten mehr Energie kostet als die Berechnung damit – gilt hier in einem hybriden elektro-optischen Bereich. Die meisten photonischen Prozessoren können heute nur Inferenz mit Gewichten durchführen, die offline auf GPUs trainiert wurden. DEOAM eröffnet einen Weg zu On-Chip-Online-Training, bei dem sich das Netzwerk kontinuierlich an neue Daten und Hardwaredrift anpasst. Papier: