¿Podemos construir chips de IA que generen imágenes de alta calidad utilizando 10,000× menos energía que las GPU actuales? Trabajo de investigación: "Una arquitectura de hardware probabilística eficiente para modelos similares a la difusión" Este trabajo presenta una arquitectura CMOS (all-transistor) completa que ejecuta de forma nativa modelos generativos de estilo de difusión, no con redes neuronales que consumen mucha energía, sino con muestreo probabilístico basado en energía. Al encadenar modelos compactos de eliminación de ruido (DTM) y explotar la aleatoriedad física en chips estándar de 65 nm, el sistema produce imágenes a la par con las GPU, pero consume solo 1,6 nanojulios por muestra de Fashion-MNIST, lo que reduce la energía en cuatro órdenes de magnitud. El entrenamiento se estabiliza a través de una nueva penalización adaptativa, y el enfoque se escala a silicio de tamaño milimétrico sin hardware exótico. Resultados: Iguala o supera la calidad de GAN/VAE/difusión a ~10.000× de menor energía; Cuadrículas 70×70, pilas de 8 capas, herramientas de código abierto lanzadas. Obtenga el análisis completo aquí: alfa identificado $yne