A computação fotónica neuromórfica encontra a memória analógica: eliminando o gargalo da conversão de dados A maioria do hardware de IA funciona em chips eletrónicos onde os cálculos são realizados movendo elétrons através de transistores. Mas existe uma alternativa crescente: realizar operações de redes neurais usando luz. Em processadores fotónicos, as multiplicações de matrizes são executadas codificando dados como sinais ópticos e passando-os através de matrizes de ressonadores de microring ajustáveis, cada um atuando como um peso sináptico. A física da luz permite um paralelismo massivo e uma propagação de latência ultrabaixa, prometendo velocidades e eficiências energéticas que a eletrónica sozinha não consegue igualar. No entanto, há um gargalo surpreendentemente mundano: cada peso sináptico precisa de um conversor digital-analógico (DAC) dedicado para acionar continuamente o modulador que o codifica. Para uma matriz de pesos de tamanho n×n, isso significa n² DACs funcionando sem parar—não para calcular, mas apenas para manter as tensões no lugar. O custo energético de transportar dados entre a memória digital e o cálculo analógico arrisca anular as próprias vantagens que tornam a fotónica atraente. Sean Lam e coautores demonstram uma solução elegante: colocar um pequeno capacitor diretamente em cada modulador óptico. Uma vez carregado, ele mantém o peso sem precisar de um DAC para permanecer ativo. Os DACs são então compartilhados ao longo das colunas e ativados apenas quando os pesos precisam ser atualizados—escalando como n em vez de n². O conceito, chamado memória analógica eletro-óptica dinâmica (DEOAM), é fabricado em um chip fotónico de silício monolítico em um processo de fundição padrão de 90 nm, alcançando mais de 26× de economia de energia em comparação com designs convencionais. Os números experimentais delineiam claramente os trade-offs. O tempo de escrita é de ~40–50 ns, o tempo de retenção ~0.83 ms, a energia por escrita ~56 pJ, e a precisão do bit em torno de 5.6 bits. A retenção depende da potência óptica incidente—mais luz significa mais vazamento—criando uma tensão direta entre a qualidade do sinal e a vida útil da memória. Para entender o que essas especificações significam para cargas de trabalho reais, os autores emulam uma rede neural de três camadas no MNIST. Uma razão de retenção para latência de rede de apenas 100 é suficiente para manter a precisão da inferência acima de 90%. Redes treinadas com o vazamento incluído tornam-se substancialmente mais robustas—um exemplo vívido de treinamento consciente do hardware valendo a pena. O mesmo princípio que impulsiona a computação em memória eletrónica—que mover dados custa mais energia do que computar com eles—aplica-se aqui em um domínio eletro-óptico híbrido. A maioria dos processadores fotónicos hoje só consegue fazer inferência com pesos treinados offline em GPUs. O DEOAM abre um caminho para treinamento online em chip, onde a rede se adapta continuamente a novos dados e desvios de hardware. Artigo: