Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Xinyu Zhou
Vi får se 👀

Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)28 nov. 2025
Att Kimi gör bättre ifrån sig än Qwen-VI skulle verkligen förvåna mig. Snarare skulle inte K2-VL göra det (det är ju mycket större än det största Qwen-VL), men Qwen-teamet har samlat på sig otrolig expertis vid det här laget, jäkla 30B MoE konkurrerar med Gemini.
Jag önskar dem lycka till.
33,6K
Det är ett Moonshot-evenemang🚀

Kimi.ai6 nov. 2025
🚀 Hej, Kimi K2 Tänkande!
Open-Source Thinking Agent Model är här.
🔹 SOTA på HLE (44,9 %) och BrowseComp (60,2 %)
🔹 Utför upp till 200 – 300 sekventiella verktygsanrop utan mänsklig inblandning
🔹 Utmärker sig i resonemang, agentisk sökning och kodning
🔹 Kontextfönster för 256 kB
K2 Thinking är byggt som en tänkande agent och markerar våra senaste ansträngningar inom testtidsskalning – skalning av både tänkande tokens och verktygsanropande turer.
K2 Thinking är nu live i chatt-läge, med fullt agent-läge som kommer snart. Den är också tillgänglig via API.
🔌 API:et är live:
🔗 Teknisk blogg:
🔗 Vikter och kod:

15,33K
Som före detta tävlingsprogrammerare ger detta mig gåshud och markerar mitt Lee Sedol-ögonblick.
De dagar och nätter som tillbringades med att mala problem – som började i förvirring och svett, slutade i spänning och en känsla av att ha åstadkommit något – kan nu lätt krossas av dagens språkmodeller.
Detta är ganska bitterljuvt, eftersom jag nu också lagar just de modeller som kan slå människor på fler och fler domäner.
Men livet går bara vidare, som alltid. Modeller kommer att bli smartare och mer kapabla, och mänskligheten på 2000-talet kommer att hitta nya sätt att leva meningsfulla liv med dessa modeller.

Jakub Pachocki18 sep. 2025
Last week, our reasoning models took part in the 2025 International Collegiate Programming Contest (ICPC), the world’s premier university-level programming competition. Our system solved all 12 out of 12 problems, a performance that would have placed first in the world (the best human team solved 11 problems).
This milestone rounds off an intense 2 months of competition performances by our models:
- A second place finish in AtCoder Heuristics World Finals
- Gold medal at the International Mathematical Olympiad
- Gold medal at the International Olympiad in Informatics
- And now, a gold medal, first place finish at the ICPC World Finals.
I believe these results, coming from a family of general reasoning models rooted in our main research program, are perhaps the clearest benchmark of progress this year. These competitions are great self-contained, time-boxed tests for the ability to discover new ideas. Even before our models were proficient at simple arithmetic, we looked towards these contests as milestones of progress towards transformative artificial intelligence.
Our models now rank among the top humans in these domains, when posed with well-specified questions and restricted to ~5 hours. The challenge now is moving to more open-ended problems, and much longer time horizons. This level of reasoning ability, applied over months and years to problems that really matter, is what we’re after - automating scientific discovery.
This rapid progress also underscores the importance of safety & alignment research. We still need more understanding of the alignment properties of long-running reasoning models; in particular, I recommend reviewing the fascinating findings from the study of scheming in reasoning models that we released today (
Congratulations to my teammates that poured their hearts into getting these competition results, and to everyone contributing to the underlying fundamental research that enables them!
147,59K
Topp
Rankning
Favoriter

