ニューロモルフィックフォトニックコンピューティングとアナログメモリの融合:データ変換のボトルネックを排除 ほとんどのAIハードウェアは電子チップ上で動作し、計算はトランジスタを通じて電子を移動させることで行われます。しかし、光を使ったニューラルネットワーク操作を行う代替案が増えています。フォトニックプロセッサでは、マトリックス乗算はデータを光信号として符号化し、それぞれがシナプス重みとして機能する可変マイクロリング共鳴器のアレイを通して実行されます。光の物理は大規模な並列性と超低遅延の伝播を可能にし、電子機器だけでは到底及ばない速度とエネルギー効率を約束します。 しかし、意外にも単純なボトルネックがあります。すべてのシナプス重みには、それを符号化する変調器を継続的に駆動するために専用のデジタル-アナログコンバーター(DAC)が必要です。サイズn×nの重み行列の場合、n²台のDACがノンストップで稼働していることを意味します。計算のためではなく、電圧を固定するためだけです。デジタルメモリとアナログ計算の間でデータをシャトル移動するエネルギーコストは、フォトニクスの魅力そのものの利点を相殺するリスクがあります。 ショーン・ラムらは、それぞれの光学変調器に直接小さなコンデンサを設置するという、洗練された解決策を実証しています。充電後はDACなしで重量を保持できます。DACは列に沿って共有され、重みの更新が必要な時のみ有効化されます—n²ではなくnでスケーリングされます。このコンセプトは動的電気光学アナログメモリ(DEOAM)と呼ばれ、標準的な90nm鋳造プロセスでモノリシックシリコンフォトニックチップ上で製造され、従来設計と比べて26×以上の省電力を実現しています。 実験的な数字はトレードオフを明確に示しています。書き込み時間は~40–50 ns、保持時間~0.83 ms、書き込みあたりのエネルギーは~56 pJ、ビット精度は約5.6ビットです。保持は入射光パワーに依存しており、光が多ければ漏れも増え、信号品質とメモリ寿命の間に直接的な緊張関係が生じます。 これらの仕様が実際のワークロードに何を意味するのかを理解するために、著者らはMNIST上で三層ニューラルネットワークをエミュレートします。ネットワークレイテンシに対する保持比率がわずか100で、推論精度を90%以上維持するのに十分です。リークを含む訓練を受けたネットワークは大幅に堅牢になり、ハードウェア認識訓練が実を結んだ鮮やかな例です。 電子メモリコンピューティングを駆動する原理、すなわちデータを移動させることにより多くのエネルギーがかかるという原理は、ハイブリッドな電気光学領域にも当てはまります。現在のほとんどのフォトニックプロセッサは、GPU上でオフラインで訓練した重みでしか推論できません。DEOAMは、ネットワークが新しいデータやハードウェアのドリフトに継続的に適応するオンチップオンライントレーニングへの道を開きます。 論文: