Dokážeme vytvořit čipy umělé inteligence, které generují vysoce kvalitní obraz s využitím o 10 000× méně energie než dnešní GPU? Výzkumný článek: "Efektivní pravděpodobnostní hardwarová architektura pro modely podobné difúzi" Tato práce odhaluje úplnou architekturu CMOS (all-tranzistor), která nativně běží na generativních modelech ve stylu difúze – nikoli s neuronovými sítěmi náročnými na energii, ale s pravděpodobnostním vzorkováním založeným na energii. Řetězením kompaktních odšumovacích modelů (DTM) a využitím fyzické náhodnosti ve standardních 65 nm čipech vytváří systém obraz srovnatelný s GPU, přesto spotřebovává pouze 1,6 nanojoulů na vzorek Fashion-MNIST – což snižuje energii o čtyři řády. Trénink je stabilizován pomocí nové adaptivní penalizace a přístup se škáluje na milimetrový křemík bez exotického hardwaru. Výsledky: Odpovídá nebo překonává kvalitu GAN/VAE/difúze při ~10 000× nižší energii; 70×70 mřížek, 8vrstvé zásobníky, vydány open-source nástroje. Kompletní analýzu naleznete zde: Identifikován alfa $yne