Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Zgłaszam złe zachowanie @_rexliu z @gen_analysis na LinkedIn - amatorska edycja obrazu AI, aby ukraść czyjś post i przypisać go sobie.
Dwa dni temu, przyjaciele z @exolabs opublikowali świetny post z @nvidia + @Apple, używając obu urządzeń do przyspieszenia LLM-ów na urządzeniu.
A potem zobaczyłem post na LI od @_rexliu, twierdzący, że "właśnie dostosowali gpt-oss-120B (QLoRA 4-bit) na DGX Spark..." (zobacz zrzuty ekranu). Super znajomy zestaw, uderzająco podobny stół, uderzająco podobna roślina w tle, niezwykle podobne rozmieszczenie kabli. I brak identyfikatora urządzenia od NVIDIA poniżej naklejki. (amatorski błąd)
Tak.... Ci goście zdecydowanie widzieli post @alexocheema na LI, który stał się wiralowy, ukradli obraz posta i edytowali go za pomocą AI, aby mogli ukraść trochę niezasłużonej pochwały za wprowadzenie tych fajnych innowacji. (I brak uznania dla @exolabs)
Tego typu edycje obrazów AI w celu kradzieży uznania będą stawały się coraz łatwiejsze i powszechniejsze. Uważajcie tam.


16 paź 2025
Klastrowanie NVIDIA DGX Spark + M3 Ultra Mac Studio dla 4x szybszego wnioskowania LLM.
DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), 3,999 $
M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), 5,599 $
DGX Spark ma 3x mniejszą przepustowość pamięci niż M3 Ultra, ale 4x więcej FLOPS.
Uruchamiając obliczeniowo ograniczone wypełnienie na DGX Spark, ograniczone pamięciowo dekodowanie na M3 Ultra i przesyłając pamięć podręczną KV przez 10GbE, jesteśmy w stanie uzyskać najlepsze z obu sprzętów z ogromnymi przyspieszeniami.
Krótka wyjaśnienie w tym wątku i link do pełnego wpisu na blogu poniżej.

@_rexliu @gen_analysis @exolabs @nvidia @Apple Post, o którym mowa:
35,6K
Najlepsze
Ranking
Ulubione

