Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Xinyu Zhou
Wir werden sehen 👀

Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)28. Nov. 2025
Kimi besser als Qwen-VI abzuschneiden, würde mich wirklich überraschen. K2-VL würde das hingegen nicht (es ist schließlich viel größer als das größte Qwen-VL), aber das Qwen-Team hat zu diesem Zeitpunkt unglaubliche Expertise angesammelt, verdammte 30B MoE konkurrieren mit Gemini.
Ich wünsche ihnen viel Glück.
33,58K
Es ist ein Moonshot-Event🚀

Kimi.ai6. Nov. 2025
🚀 Hallo, Kimi K2 Thinking!
Das Open-Source Thinking Agent Model ist hier.
🔹 SOTA bei HLE (44,9%) und BrowseComp (60,2%)
🔹 Führt bis zu 200 – 300 aufeinanderfolgende Toolaufrufe ohne menschliches Eingreifen aus
🔹 Hervorragend in der Argumentation, agentischem Suchen und Programmierung
🔹 256K Kontextfenster
Als Denkagent entwickelt, markiert K2 Thinking unsere neuesten Bemühungen im Testzeit-Skalieren – sowohl das Skalieren von Denk-Token als auch von Toolaufrufen.
K2 Thinking ist jetzt im Chatmodus live, der vollständige agentische Modus kommt bald. Es ist auch über die API zugänglich.
🔌 API ist live:
🔗 Tech-Blog:
🔗 Gewichte & Code:

15,3K
Als ehemaliger Wettkampfprogrammierer gibt mir das Gänsehaut und markiert meinen Lee Sedol Moment.
Die Tage und Nächte, die ich damit verbracht habe, Probleme zu lösen – beginnend in Verwirrung und Schweiß, endend in Aufregung und einem Gefühl der Erfüllung – können jetzt leicht von den heutigen Sprachmodellen übertroffen werden.
Das ist ziemlich bittersüß, da ich jetzt auch die Modelle koche, die Menschen in immer mehr Bereichen schlagen können.
Aber das Leben geht einfach weiter, wie immer. Die Modelle werden immer intelligenter und fähiger, und die Menschheit im 21. Jahrhundert wird neue Wege finden, um mit diesen Modellen sinnvolle Leben zu führen.

Jakub Pachocki18. Sept. 2025
Last week, our reasoning models took part in the 2025 International Collegiate Programming Contest (ICPC), the world’s premier university-level programming competition. Our system solved all 12 out of 12 problems, a performance that would have placed first in the world (the best human team solved 11 problems).
This milestone rounds off an intense 2 months of competition performances by our models:
- A second place finish in AtCoder Heuristics World Finals
- Gold medal at the International Mathematical Olympiad
- Gold medal at the International Olympiad in Informatics
- And now, a gold medal, first place finish at the ICPC World Finals.
I believe these results, coming from a family of general reasoning models rooted in our main research program, are perhaps the clearest benchmark of progress this year. These competitions are great self-contained, time-boxed tests for the ability to discover new ideas. Even before our models were proficient at simple arithmetic, we looked towards these contests as milestones of progress towards transformative artificial intelligence.
Our models now rank among the top humans in these domains, when posed with well-specified questions and restricted to ~5 hours. The challenge now is moving to more open-ended problems, and much longer time horizons. This level of reasoning ability, applied over months and years to problems that really matter, is what we’re after - automating scientific discovery.
This rapid progress also underscores the importance of safety & alignment research. We still need more understanding of the alignment properties of long-running reasoning models; in particular, I recommend reviewing the fascinating findings from the study of scheming in reasoning models that we released today (
Congratulations to my teammates that poured their hearts into getting these competition results, and to everyone contributing to the underlying fundamental research that enables them!
147,58K
Top
Ranking
Favoriten

