Denunțarea unui comportament rău de către @_rexliu de la @gen_analysis pe LinkedIn - Editare de imagine AI amatoare pentru a fura postarea altcuiva și a o revendica pentru ei înșiși În urmă cu două zile, prietenii de la @exolabs au lansat o postare minunată cu @nvidia + @Apple și folosind ambele hardware pentru a accelera LLM-urile de pe dispozitiv. Și apoi, am văzut o postare pe LI de @_rexliu, susținând că "tocmai au reglat gpt-oss-120B (QLoRA 4-bit) pe un DGX Spark..." (vezi capturi de ecran). Configurație super familiară, masă izbitor de asemănătoare, plantă izbitor de asemănătoare în fundal, plasări remarcabil de asemănătoare ale cablurilor. Și niciun ID de dispozitiv de la NVIDIA sub autocolant. (greșeală de amator) Da.... Acești tipi au văzut cu siguranță postarea lui @alexocheema pe LI devenind virală, au furat imaginea postării și au editat-o cu AI, astfel încât să poată fura niște laude nemeritate pentru că au rulat aceste inovații interesante. (Și fără credite pentru @exolabs) Aceste tipuri de editări de imagini AI pentru a fura credit vor deveni din ce în ce mai ușoare și mai comune acum. Fii atent acolo.
EXO Labs
EXO Labs16 oct. 2025
Clustering NVIDIA DGX Spark + M3 Ultra Mac Studio pentru inferență LLM de 4 ori mai rapidă. DGX Scânteie: 128 GB @ 273 GB/s, 100 TFLOPS (fp16), 3.999 USD M3 Ultra: 256 GB @ 819 GB/s, 26 TFLOPS (fp16), 5.599 USD DGX Spark are de 3 ori mai puțină lățime de bandă de memorie decât M3 Ultra, dar de 4 ori mai mult FLOPS. Rulând preumplerea legată de calcul pe DGX Spark, decodarea legată de memorie pe M3 Ultra și transmiterea cache-ului KV peste 10GbE, putem obține tot ce este mai bun din ambele hardware cu accelerări masive. Scurtă explicație în acest subiect și link către postarea completă de mai jos.
@_rexliu @gen_analysis @exolabs @nvidia @Apple Postarea în cauză:
35,63K