Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Chamando a atenção para um mau comportamento de @_rexliu da @gen_analysis no LinkedIn - edição de imagem de IA amadora para roubar a postagem de outra pessoa e reivindicá-la como sua.
Há dois dias, os amigos da @exolabs lançaram uma postagem incrível com a @nvidia + @Apple, usando ambos os hardwares para acelerar LLMs no dispositivo.
E então, vi uma postagem no LI de @_rexliu, afirmando que "acabaram de ajustar o gpt-oss-120B (QLoRA 4-bit) em um DGX Spark..." (veja as capturas de tela). Configuração super familiar, tabela strikingly similar, planta strikingly similar ao fundo, colocações de cabos notavelmente similares. E sem ID do dispositivo da NVIDIA abaixo do adesivo. (erro amador)
Sim.... Esses caras definitivamente viram a postagem de @alexocheema no LI viralizar, roubaram a imagem da postagem e editaram com IA, para que possam roubar alguns elogios não merecidos por executar essas inovações legais. (E sem créditos para @exolabs)
Esses tipos de edições de imagem de IA para roubar crédito se tornarão cada vez mais fáceis e comuns agora. Tenham cuidado por aí.


16/10/2025
Agrupamento NVIDIA DGX Spark + M3 Ultra Mac Studio para uma inferência LLM 4x mais rápida.
DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), $3,999
M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), $5,599
O DGX Spark tem 3x menos largura de banda de memória do que o M3 Ultra, mas 4x mais FLOPS.
Ao executar pré-preenchimento limitado por computação no DGX Spark, decodificação limitada por memória no M3 Ultra e transmitindo o cache KV via 10GbE, conseguimos obter o melhor de ambos os hardwares com aumentos de velocidade massivos.
Explicação curta neste tópico e link para o post completo do blog abaixo.

@_rexliu @gen_analysis @exolabs @nvidia @Apple O post em questão:
35,6K
Top
Classificação
Favoritos

