Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Xinyu Zhou
Veremos 👀

Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)28 nov 2025
Kimi superando a Qwen-VI realmente me sorprendería. Más bien, K2-VL no lo haría (es mucho más grande que el mayor Qwen-VL después de todo), pero el equipo de Qwen ha acumulado una experiencia increíble en este punto, maldita sea, 30B MoE compite con Gemini.
Les deseo suerte.
33,59K
Es un evento Moonshot🚀

Kimi.ai6 nov 2025
🚀 ¡Hola, Kimi K2 Thinking!
El modelo de agente pensante de código abierto ya está aquí.
🔹 SOTA en HLE (44.9%) y BrowseComp (60.2%)
🔹 Ejecuta hasta 200 – 300 llamadas a herramientas secuenciales sin interferencia humana
🔹 Destaca en razonamiento, búsqueda agente y codificación
🔹 Ventana de contexto de 256K
Construido como un agente pensante, K2 Thinking marca nuestros últimos esfuerzos en escalado en tiempo de prueba — escalando tanto los tokens de pensamiento como los turnos de llamadas a herramientas.
K2 Thinking ya está en vivo en modo chat, con el modo agente completo llegando pronto. También es accesible a través de API.
🔌 API está en vivo:
🔗 Blog técnico:
🔗 Pesos y código:

15,31K
Como exprogramador competitivo, esto me da escalofríos y marca mi momento Lee Sedol.
Esos días y noches pasados resolviendo problemas—comenzando en confusión y sudor, terminando en emoción y un sentido de logro—ahora pueden ser fácilmente aplastados por los modelos de lenguaje de hoy.
Esto es bastante agridulce, ya que ahora también estoy desarrollando los mismos modelos que pueden vencer a los humanos en cada vez más dominios.
Pero la vida sigue, como siempre. Los modelos seguirán volviéndose más inteligentes y capaces, y la humanidad en el siglo XXI encontrará nuevas formas de vivir vidas significativas con estos modelos.

Jakub Pachocki18 sept 2025
Last week, our reasoning models took part in the 2025 International Collegiate Programming Contest (ICPC), the world’s premier university-level programming competition. Our system solved all 12 out of 12 problems, a performance that would have placed first in the world (the best human team solved 11 problems).
This milestone rounds off an intense 2 months of competition performances by our models:
- A second place finish in AtCoder Heuristics World Finals
- Gold medal at the International Mathematical Olympiad
- Gold medal at the International Olympiad in Informatics
- And now, a gold medal, first place finish at the ICPC World Finals.
I believe these results, coming from a family of general reasoning models rooted in our main research program, are perhaps the clearest benchmark of progress this year. These competitions are great self-contained, time-boxed tests for the ability to discover new ideas. Even before our models were proficient at simple arithmetic, we looked towards these contests as milestones of progress towards transformative artificial intelligence.
Our models now rank among the top humans in these domains, when posed with well-specified questions and restricted to ~5 hours. The challenge now is moving to more open-ended problems, and much longer time horizons. This level of reasoning ability, applied over months and years to problems that really matter, is what we’re after - automating scientific discovery.
This rapid progress also underscores the importance of safety & alignment research. We still need more understanding of the alignment properties of long-running reasoning models; in particular, I recommend reviewing the fascinating findings from the study of scheming in reasoning models that we released today (
Congratulations to my teammates that poured their hearts into getting these competition results, and to everyone contributing to the underlying fundamental research that enables them!
147,59K
Parte superior
Clasificación
Favoritos

