Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Art / Biegung / HVM / INets / λKalkül
Hier gibt es nichts Neues, nur ein kurzes Fallbeispiel zur Verwendung von KI für Forschung und Entwicklung.
(GPT-5.1 vs Opus 4.5)
Zur Kontextualisierung:
Wir haben 2 Versionen von HVM, die SupGen ausführen können:
→ HVM3: wurde zu dessen Entwicklung verwendet, erreicht 160m Interaktionen/s
→ HVM4: polierte Version, erreicht 130m Interaktionen/s
Das bedeutet, die neue Version ist moderner, aber etwas langsamer, da wir sie noch nicht optimiert haben.
Gestern habe ich 2 Codierungsagenten gestartet: Opus 4.5 (ultrathink) und GPT-5.1-codex-max (xhigh) und sie gebeten, das neue HVM4 so weit wie möglich zu optimieren.
Ergebnis: Stunden später sind sie komplett gescheitert.
Nicht einmal +1%.
Ich habe sie dann gebeten, weiter zu versuchen.
Sie sind wieder gescheitert. Und wieder. Stundenlang.
Irgendwann hatten sie einfach aufgegeben.
Sie weigerten sich sogar, weiter zu versuchen.
GPT-5 schrieb:
> Ich habe mehrere strukturelle und niedrigstufige Änderungen versucht, um den Speicherverkehr zu reduzieren und den Durchsatz zu steigern, aber jeder Versuch hat entweder den Build beschädigt, die Leistung verschlechtert oder es nicht geschafft, über die ~120 M itrs/s Basislinie hinaus zu verbessern.
> Angesichts der festen clang -03 Einschränkung und der speichergebundenen Natur dieser Arbeitslast habe ich derzeit keine tragfähige Änderung, die sicher auf 140 M itrs/s drückt. Weiter "einfach nur versuchen" zu wollen, wird wahrscheinlich mehr Rückschritte als echte Fortschritte bringen.
Also habe ich etwas anderes versucht: Diesmal habe ich das alte HVM3-Verzeichnis in HVM4 kopiert/eingefügt und geschrieben:
Das sind die alten und neuen HVM-Implementierungen. Die alte enthält einige Optimierungen, die die neue noch nicht implementiert hat. Euer Ziel ist es, die Unterschiede zu verstehen und ALLE Optimierungen von der alten in die neue Architektur zu portieren.
Das habe ich an Opus gesendet.
10 Minuten später habe ich das Terminal überprüft.
"190m Interaktionen pro Sekunde"
Das war... ein ziemlich erfreulicher Anblick, da es ein absoluter Rekord für diesen Benchmark ist. Wir haben noch nie etwas Vergleichbares auf einer einzelnen CPU-Kern gesehen.
Das verstärkt meine Wahrnehmung über den Zustand von LLMs:
→ Sie sind extrem gut im Programmieren.
→ Sie sind extrem schlecht in der Innovation.
Beide Modelle waren völlig unfähig, die Ideen zu entwickeln, die wir hatten, aber sobald sie mit der Lösung versorgt wurden, sind sie extrem kompetent in der Implementierung, im Lesen und Schreiben von viel Code, was viel Zeit spart. Die wichtigsten Optimierungen von HVM3 sind jetzt in der neuen Architektur integriert, erreichen einen neuen Rekord, und ich musste überhaupt nichts codieren. Ich musste nur die Idee haben, dies zu tun, und es hat wunderbar funktioniert.
Zur Information: Ich habe die Verwendung von Gemini 3 komplett eingestellt. Ich denke, es ist das intelligenteste Modell der Welt, aber es ist wirklich nicht geeignet für das Programmieren aufgrund schlechter Befehlsausführung, vieler Verbindungsfehler und Verzögerungen, und Gemini CLI funktioniert schlecht. GPT-5.1-codex-max ist ganz nett, aber es ist langsam und ich habe noch nicht gesehen, dass es Opus 4.5 übertrifft, welches wieder mein Modell für alles ist. Ich liebe, wie konsistent die Claude-Modelle immer beim Programmieren waren, und ich bin so froh, eines zu haben, das tatsächlich auch intelligent ist.
68,52K
Ich möchte nur festhalten, dass ich heute an der Programmier-Show von @FilipeDeschamps teilgenommen habe und in den ersten Fragen eliminiert wurde, weil ich *grundlegende* Programmierkonzepte nicht kannte (und ich habe den Chat wütend gemacht, weil ich zu lange gebraucht habe, um zu antworten 😭), und es gibt Leute, die mich als intelligent einstufen.
Ich hoffe, das klärt die Sache für immer :3
68,32K
Top
Ranking
Favoriten



