Можем ли мы создать чипы ИИ, которые генерируют изображения высокого качества, используя в 10,000 раз меньше энергии, чем современные графические процессоры? Научная работа: "Эффективная вероятностная аппаратная архитектура для моделей, подобных диффузии" Эта работа раскрывает полную архитектуру CMOS (все транзисторы), которая нативно запускает генеративные модели в стиле диффузии — не с помощью энергоемких нейронных сетей, а с помощью вероятностного семплирования на основе энергии. Объединяя компактные модели денойзинга (DTM) и используя физическую случайность в стандартных чипах 65 нм, система производит изображения, сопоставимые с графическими процессорами, но потребляет всего 1.6 наноджоуля на образец Fashion-MNIST — сокращая потребление энергии в четыре порядка величины. Обучение стабилизируется с помощью новой адаптивной пенализации, а подход масштабируется до кремниевых чипов размером в миллиметр без экзотического оборудования. Результаты: Соответствует или превосходит качество GAN/VAE/диффузии при ~10,000 раз меньшем потреблении энергии; сетки 70×70, 8-слойные стеки, выпущены инструменты с открытым исходным кодом. Получите полный анализ здесь: // alpha identified // $yne