Kunnen we AI-chips bouwen die hoogwaardige afbeeldingen genereren met 10.000× minder energie dan de GPU's van vandaag? Onderzoeksartikel: "Een efficiënte probabilistische hardware-architectuur voor diffusie-achtige modellen" Dit werk onthult een volledige CMOS (alle transistoren) architectuur die native diffusie-stijl generatieve modellen draait—niet met energieverslindende neurale netwerken, maar met energie-gebaseerde probabilistische sampling. Door compacte denoising-modellen (DTM's) te koppelen en fysieke willekeurigheid in standaard 65 nm chips te benutten, produceert het systeem afbeeldingen die vergelijkbaar zijn met die van GPU's, maar verbruikt het slechts 1,6 nanojoules per Fashion-MNIST monster—wat de energie met vier ordes van grootte vermindert. Training wordt gestabiliseerd via een nieuwe adaptieve straf, en de aanpak schaalt naar millimeter-grote silicium zonder exotische hardware. Resultaten: Evenaart of overtreft de kwaliteit van GAN/VAE/diffusie bij ~10.000× lagere energie; 70×70 raster, 8-laags stapels, open-source tools vrijgegeven. Krijg de volledige analyse hier: // alpha geïdentificeerd // $yne