Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Alex Cheema - e/acc
Eles até mudaram o nome no adesivo de acesso antecipado.
É criativo ngl



Eito Miyamura | 🇯🇵🇬🇧19 de out. de 2025
Denunciar algum mau comportamento @_rexliu de @gen_analysis no LinkedIn - edição de imagem de IA amadora para roubar a postagem de outra pessoa e reivindicá-la para si
Dois dias atrás, amigos da @exolabs lançaram um post incrível com @nvidia + @Apple e usando ambos os hardwares para acelerar LLMs no dispositivo.
E então, eu vi um post sobre LI por @_rexliu, alegando que eles "apenas ajustaram o gpt-oss-120B (QLoRA 4 bits) em um DGX Spark ..." (veja as capturas de tela). Configuração super familiar, mesa surpreendentemente semelhante, planta surpreendentemente semelhante ao fundo, posicionamentos de cabos notavelmente semelhantes. E nenhum ID de dispositivo da NVIDIA abaixo do adesivo. (erro amador)
Sim.... Esses caras definitivamente viram a postagem de @alexocheema no LI se tornar viral, roubaram a imagem da postagem e a editaram por IA, para que possam roubar alguns elogios imerecidos por executar essas inovações legais. (E sem créditos para @exolabs)
Esses tipos de edições de imagens de IA para roubar crédito se tornarão cada vez mais fáceis e comuns agora. Tenha cuidado lá fora.

8,92K
lol conteúdo imitador de IA é a nova meta?

Eito Miyamura | 🇯🇵🇬🇧19 de out. de 2025
Denunciar algum mau comportamento @_rexliu de @gen_analysis no LinkedIn - edição de imagem de IA amadora para roubar a postagem de outra pessoa e reivindicá-la para si
Dois dias atrás, amigos da @exolabs lançaram um post incrível com @nvidia + @Apple e usando ambos os hardwares para acelerar LLMs no dispositivo.
E então, eu vi um post sobre LI por @_rexliu, alegando que eles "apenas ajustaram o gpt-oss-120B (QLoRA 4 bits) em um DGX Spark ..." (veja as capturas de tela). Configuração super familiar, mesa surpreendentemente semelhante, planta surpreendentemente semelhante ao fundo, posicionamentos de cabos notavelmente semelhantes. E nenhum ID de dispositivo da NVIDIA abaixo do adesivo. (erro amador)
Sim.... Esses caras definitivamente viram a postagem de @alexocheema no LI se tornar viral, roubaram a imagem da postagem e a editaram por IA, para que possam roubar alguns elogios imerecidos por executar essas inovações legais. (E sem créditos para @exolabs)
Esses tipos de edições de imagens de IA para roubar crédito se tornarão cada vez mais fáceis e comuns agora. Tenha cuidado lá fora.
@garrytan, você tem algum mau comportamento em suas coortes YC.

356
A NVIDIA nos enviou 2 DGX Sparks.
Por um tempo, nos perguntamos o que faríamos com eles.
A largura de banda da memória é de 273 GB/s, tornando-a 3x mais lenta que um M3 Ultra (819 GB/s) para inferência batch_size=1. Mas tem 4x mais FLOPS (100 TFLOPS em comparação com 26 TFLOPS).
Então pensamos, e se pudéssemos combinar o DGX Spark e o M3 Ultra e fazer uso da computação massiva no DGX Spark e da enorme largura de banda de memória no M3 Ultra.
Criamos uma maneira de dividir a inferência entre os dois dispositivos e obter uma aceleração de até 4x para prompts longos em comparação com o M3 Ultra por conta própria.
Detalhes completos na postagem do blog vinculada abaixo.

EXO Labs16 de out. de 2025
Clustering NVIDIA DGX Spark + M3 Ultra Mac Studio para inferência LLM 4x mais rápida.
DGX Spark: 128 GB @ 273 GB/s, 100 TFLOPS (fp16), US$ 3.999
M3 Ultra: 256 GB @ 819 GB/s, 26 TFLOPS (fp16), US$ 5.599
O DGX Spark tem 3x menos largura de banda de memória do que o M3 Ultra, mas 4x mais FLOPS.
Ao executar o preenchimento de pré-processamento vinculado ao DGX Spark, a decodificação vinculada à memória no M3 Ultra e o streaming do cache KV em 10 GbE, podemos obter o melhor de ambos os hardwares com acelerações massivas.
Breve explicação neste tópico e link para a postagem completa do blog abaixo.

274,95K
Melhores
Classificação
Favoritos

