Computação fotônica neuromórfica encontra memória analógica: eliminando o gargalo de conversão de dados A maior parte do hardware de IA roda em chips eletrônicos onde os cálculos são realizados movendo elétrons através de transistores. Mas há uma alternativa crescente: realizar operações de redes neurais usando luz. Em processadores fotônicos, multiplicações matriciais são executadas codificando dados como sinais ópticos e passando-os por arrays de ressonadores microring sintonizáveis, cada um atuando como um peso sináptico. A física da luz permite paralelismo massivo e propagação de latência ultrabaixa, prometendo velocidades e eficiências energéticas que a eletrônica sozinha não consegue igualar. No entanto, há um gargalo surpreendentemente mundano: todo peso sináptico precisa de um conversor digital-analógico (DAC) dedicado para alimentar continuamente o modulador que o codifica. Para uma matriz de pesos de tamanho n×n, isso significa n² DACs rodando sem parar — não para calcular, mas apenas para manter tensões no lugar. O custo energético de transportar dados entre a memória digital e a computação analógica corre o risco de anular as próprias vantagens que tornam a fotônica atraente. Sean Lam e coautores demonstram uma solução elegante: colocar um pequeno capacitor diretamente em cada modulador óptico. Uma vez carregado, ele segura o peso sem precisar de um DAC para se manter ativo. Os DACs são então compartilhados ao longo das colunas e ativados apenas quando os pesos precisam ser atualizados — escalando como n em vez de n². O conceito, chamado memória analógica eletro-óptica dinâmica (DEOAM), é fabricado em um chip fotônico monolítico de silício em um processo padrão de fundição de 90 nm, alcançando mais de 26× economia de energia em comparação com projetos convencionais. Os números experimentais enquadram claramente os trade-offs. O tempo de gravação é ~40–50 ns, o tempo de retenção ~0,83 ms, a energia por gravação ~56 pJ, e a precisão dos bits em torno de 5,6 bits. A retenção depende da potência óptica incidente — mais luz significa mais vazamento — criando uma tensão direta entre a qualidade do sinal e a vida útil da memória. Para entender o que essas especificações significam para cargas de trabalho reais, os autores emulam uma rede neural de três camadas no MNIST. Uma relação retenção-latência de rede de apenas 100 é suficiente para manter a precisão da inferência acima de 90%. Redes treinadas com o vazamento incluído tornam-se substancialmente mais robustas — um exemplo vívido de treinamento consciente de hardware que vale a pena. O mesmo princípio que impulsiona a computação eletrônica em memória — que mover dados custa mais energia do que processar com eles — se aplica aqui em um domínio híbrido eletro-óptico. A maioria dos processadores fotônicos hoje só consegue fazer inferência com pesos treinados offline em GPUs. O DEOAM abre um caminho para treinamento on-chip, online, onde a rede se adapta continuamente a novos dados e drift de hardware. Papel: