Chamando a atenção para um mau comportamento de @_rexliu da @gen_analysis no LinkedIn - edição de imagem de IA amadora para roubar a postagem de outra pessoa e reivindicá-la como sua. Há dois dias, os amigos da @exolabs lançaram uma postagem incrível com a @nvidia + @Apple, usando ambos os hardwares para acelerar LLMs no dispositivo. E então, vi uma postagem no LI de @_rexliu, afirmando que "acabaram de ajustar o gpt-oss-120B (QLoRA 4-bit) em um DGX Spark..." (veja as capturas de tela). Configuração super familiar, tabela strikingly similar, planta strikingly similar ao fundo, colocações de cabos notavelmente similares. E sem ID do dispositivo da NVIDIA abaixo do adesivo. (erro amador) Sim.... Esses caras definitivamente viram a postagem de @alexocheema no LI viralizar, roubaram a imagem da postagem e editaram com IA, para que possam roubar alguns elogios não merecidos por executar essas inovações legais. (E sem créditos para @exolabs) Esses tipos de edições de imagem de IA para roubar crédito se tornarão cada vez mais fáceis e comuns agora. Tenham cuidado por aí.
EXO Labs
EXO Labs16/10/2025
Agrupamento NVIDIA DGX Spark + M3 Ultra Mac Studio para uma inferência LLM 4x mais rápida. DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), $3,999 M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), $5,599 O DGX Spark tem 3x menos largura de banda de memória do que o M3 Ultra, mas 4x mais FLOPS. Ao executar pré-preenchimento limitado por computação no DGX Spark, decodificação limitada por memória no M3 Ultra e transmitindo o cache KV via 10GbE, conseguimos obter o melhor de ambos os hardwares com aumentos de velocidade massivos. Explicação curta neste tópico e link para o post completo do blog abaixo.
@_rexliu @gen_analysis @exolabs @nvidia @Apple O post em questão:
35,6K