Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Alex Cheema - e/acc
He jopa muuttivat nimen varhaisen pääsyn tarrassa.
Se on luovaa ngl



Eito Miyamura | 🇯🇵🇬🇧19.10.2025
LinkedInissä @gen_analysis @_rexliu huonon käytöksen kutsuminen - amatöörimäinen tekoälykuvankäsittely varastaa jonkun toisen viesti ja vaatia se itselleen
Kaksi päivää sitten ystävät @exolabs:ssä julkaisivat mahtavan postauksen, jossa oli @nvidia + @Apple ja molempien laitteistojen käyttö LLM:ien nopeuttamiseen laitteessa.
Ja sitten näin @_rexliu:n LI-postauksen, jossa väitettiin, että he "vain hienosäätivät gpt-oss-120B:tä (QLoRA 4-bittiä) DGX Sparkissa..." (katso kuvakaappaukset). Erittäin tuttu kokoonpano, silmiinpistävän samanlainen pöytä, silmiinpistävän samanlainen kasvi taustalla, huomattavan samanlaiset kaapelien sijoittelut. Eikä tarran alla ole NVIDIAn laitetunnusta. (amatöörien virhe)
Kyllä.... Nämä kaverit näkivät ehdottomasti @alexocheema'n LI-postauksen leviävän, varastivat postauksen kuvan ja muokkasivat sitä tekoälyllä, jotta he voivat varastaa ansaitsematonta kiitosta näiden hienojen innovaatioiden pyörittämisestä. (Eikä krediittejä @exolabs)
Tämäntyyppiset tekoälykuvien muokkaukset luoton varastamiseksi ovat nyt yhä helpompia ja yleisempiä. Ole varovainen siellä.

8,92K
lol ai copycat -sisältö on uusi meta?

Eito Miyamura | 🇯🇵🇬🇧19.10.2025
LinkedInissä @gen_analysis @_rexliu huonon käytöksen kutsuminen - amatöörimäinen tekoälykuvankäsittely varastaa jonkun toisen viesti ja vaatia se itselleen
Kaksi päivää sitten ystävät @exolabs:ssä julkaisivat mahtavan postauksen, jossa oli @nvidia + @Apple ja molempien laitteistojen käyttö LLM:ien nopeuttamiseen laitteessa.
Ja sitten näin @_rexliu:n LI-postauksen, jossa väitettiin, että he "vain hienosäätivät gpt-oss-120B:tä (QLoRA 4-bittiä) DGX Sparkissa..." (katso kuvakaappaukset). Erittäin tuttu kokoonpano, silmiinpistävän samanlainen pöytä, silmiinpistävän samanlainen kasvi taustalla, huomattavan samanlaiset kaapelien sijoittelut. Eikä tarran alla ole NVIDIAn laitetunnusta. (amatöörien virhe)
Kyllä.... Nämä kaverit näkivät ehdottomasti @alexocheema'n LI-postauksen leviävän, varastivat postauksen kuvan ja muokkasivat sitä tekoälyllä, jotta he voivat varastaa ansaitsematonta kiitosta näiden hienojen innovaatioiden pyörittämisestä. (Eikä krediittejä @exolabs)
Tämäntyyppiset tekoälykuvien muokkaukset luoton varastamiseksi ovat nyt yhä helpompia ja yleisempiä. Ole varovainen siellä.
@garrytan sinulla on huonoa käytöstä YC-kohorteissasi.

355
NVIDIA lähetti meille 2 DGX Sparkia.
Jonkin aikaa mietimme, mitä tekisimme niillä.
Muistin kaistanleveys on 273 Gt/s, mikä tekee siitä 3 kertaa hitaamman kuin M3 Ultra (819 Gt/s) batch_size=1 päättelyssä. Mutta siinä on 4x enemmän FLOPSeja (100 TFLOPS verrattuna 26 TFLOPS:iin).
Joten ajattelimme, mitä jos voisimme yhdistää DGX Sparkin ja M3 Ultran ja hyödyntää sekä DGX Sparkin massiivista laskentaa että M3 Ultran massiivista muistikaistanleveyttä.
Keksimme tavan jakaa päättely molempien laitteiden välillä ja saavuttaa jopa 4-kertainen nopeus pitkille kehotteille verrattuna M3 Ultraan yksinään.
Täydelliset tiedot alla linkitetyssä blogikirjoituksessa.

EXO Labs16.10.2025
Clustering NVIDIA DGX Spark + M3 Ultra Mac Studio for 4x faster LLM inference.
DGX Spark: 128GB @ 273GB/s, 100 TFLOPS (fp16), $3,999
M3 Ultra: 256GB @ 819GB/s, 26 TFLOPS (fp16), $5,599
The DGX Spark has 3x less memory bandwidth than the M3 Ultra but 4x more FLOPS.
By running compute-bound prefill on the DGX Spark, memory-bound decode on the M3 Ultra, and streaming the KV cache over 10GbE, we are able to get the best of both hardware with massive speedups.
Short explanation in this thread & link to full blog post below.

274,95K
Johtavat
Rankkaus
Suosikit

