Zgłaszam złe zachowanie @_rexliu z @gen_analysis na LinkedIn - amatorska edycja obrazu AI, aby ukraść czyjś post i przypisać go sobie. Dwa dni temu, przyjaciele z @exolabs opublikowali świetny post z @nvidia + @Apple, używając obu urządzeń do przyspieszenia LLM-ów na urządzeniu. A potem zobaczyłem post na LI od @_rexliu, twierdzący, że "właśnie dostosowali gpt-oss-120B (QLoRA 4-bit) na DGX Spark..." (zobacz zrzuty ekranu). Super znajomy zestaw, uderzająco podobny stół, uderzająco podobna roślina w tle, niezwykle podobne rozmieszczenie kabli. I brak identyfikatora urządzenia od NVIDIA poniżej naklejki. (amatorski błąd) Tak.... Ci goście zdecydowanie widzieli post @alexocheema na LI, który stał się wiralowy, ukradli obraz posta i edytowali go za pomocą AI, aby mogli ukraść trochę niezasłużonej pochwały za wprowadzenie tych fajnych innowacji. (I brak uznania dla @exolabs) Tego typu edycje obrazów AI w celu kradzieży uznania będą stawały się coraz łatwiejsze i powszechniejsze. Uważajcie tam.
EXO Labs
EXO Labs16 paź 2025
Klastrowanie NVIDIA DGX Spark + M3 Ultra Mac Studio dla 4x szybszego wnioskowania LLM. DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), 3,999 $ M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), 5,599 $ DGX Spark ma 3x mniejszą przepustowość pamięci niż M3 Ultra, ale 4x więcej FLOPS. Uruchamiając obliczeniowo ograniczone wypełnienie na DGX Spark, ograniczone pamięciowo dekodowanie na M3 Ultra i przesyłając pamięć podręczną KV przez 10GbE, jesteśmy w stanie uzyskać najlepsze z obu sprzętów z ogromnymi przyspieszeniami. Krótka wyjaśnienie w tym wątku i link do pełnego wpisu na blogu poniżej.
@_rexliu @gen_analysis @exolabs @nvidia @Apple Post, o którym mowa:
35,6K