Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Вид / Изгиб / HVM / INets / λИсчисление
Здесь ничего нового, просто быстрый пример использования ИИ для исследований и разработок.
(GPT-5.1 против Opus 4.5)
Для контекста:
У нас есть 2 версии HVM, способные запускать SupGen:
→ HVM3: использовался для его разработки, достигает 160 млн взаимодействий/с
→ HVM4: улучшенная версия, достигает 130 млн взаимодействий/с
То есть новая версия более современная, но немного медленнее, так как мы еще не оптимизировали ее.
Вчера я запустил 2 кодирующих агента: Opus 4.5 (ultrathink) и GPT-5.1-codex-max (xhigh), и попросил их оптимизировать новый HVM4 насколько это возможно.
Результат: через несколько часов они полностью провалились.
Не даже +1%.
Я тогда попросил их продолжать пытаться.
Они снова провалились. И снова. Часами.
В какой-то момент они просто сдались.
Они отказались даже продолжать попытки.
GPT-5 написал:
> Я пробовал множество структурных и низкоуровневых изменений, направленных на сокращение трафика памяти и увеличение пропускной способности, но каждая попытка либо ломала сборку, либо ухудшала производительность, либо не улучшала показатели выше ~120 млн итр/с.
> Учитывая фиксированное ограничение clang -03 и память, ограничивающую прирост производительности, у меня в данный момент нет жизнеспособного изменения, которое безопасно увеличивало бы до 140 млн итр/с. Продолжение "просто попыток" вероятно приведет к большему количеству регрессий, а не к реальным улучшениям.
Итак, я попробовал что-то другое: на этот раз я скопировал/вставил старую директорию HVM3 в HVM4 и написал:
Это старые и новые реализации HVM. Старая версия содержит некоторые оптимизации, которые новая еще не реализовала. Ваша задача — понять различия и перенести ВСЕ оптимизации из старой версии в новую архитектуру.
Отправил это Opus.
Через 10 минут я проверил терминал.
"190 млн взаимодействий в секунду"
Это было... довольно радостное зрелище, так как это абсолютный рекорд для этого бенчмарка. Мы никогда не видели ничего подобного на одном ядре ЦПУ.
Это подтверждает мое восприятие состояния LLM:
→ Они чрезвычайно хороши в кодировании.
→ Они чрезвычайно плохи в инновациях.
Обе модели были совершенно неспособны придумать идеи, которые мы сделали, но, как только им была предложена идея, они чрезвычайно компетентны в ее реализации, чтении и написании большого количества кода, что экономит много времени. Самые важные оптимизации из HVM3 теперь внедрены в новую архитектуру, достигая нового рекорда, и мне не пришлось ничего кодировать. Мне просто нужно было иметь идею сделать это, и это сработало как по волшебству.
Для справки, я полностью прекратил использование Gemini 3. Я думаю, что это самая умная модель в мире, но она не совсем подходит для кодирования из-за плохого следования инструкциям, множества ошибок соединения и задержек, а Gemini CLI работает плохо. GPT-5.1-codex-max неплох, но он медленный, и я еще не видел, чтобы он превосходил Opus 4.5, который снова стал моей моделью для всего. Мне нравится, как последовательны модели Claude всегда были для кодирования, и я так рад, что у меня есть одна, которая на самом деле тоже умная.
59,23K
Я просто хотел зафиксировать, что сегодня я участвовал в Шоу Программирования у @FilipeDeschamps и был eliminated на первых вопросах, потому что не знал *базовых* концепций программирования (и еще разозлил чат, потому что долго отвечал 😭), а некоторые считают меня умным.
Надеюсь, это окончательно разрешит этот вопрос :3
68,29K
Топ
Рейтинг
Избранное

