Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov
Creatorul AuditAgent și AgentArena de la Nethermind | Instrumente AI pentru securitatea Web3
Tocmai m-am întors dintr-o săptămână intensă petrecută la @EFDevcon Buenos Aires: două discuții în panel, o prezentare despre viitorul auditorilor de contracte inteligente, un atelier Agent Arena și jurizarea @ETHGlobal Hackathon. Anul acesta, Devconnect a părut cu adevărat o Expoziție Mondială Ethereum — mai puține discuții despre un viitor îndepărtat și mai multe despre produse deja aflate în producție și care vând bani reali.
Concluzia mea principală: @ethereum pare încă cel mai serios ecosistem pentru adoptarea pe termen lung, mai ales în finanțele descentralizate. Asta nu înseamnă că alte ecosisteme nu au vreo șansă — dar maturitatea standardelor, profunzimea infrastructurii și concentrarea dezvoltatorilor sunt încă foarte mult de partea Ethereum.
Totuși, povestea scalării prin L2 este departe de a fi rezolvată. Din punctul meu de vedere, a existat o greșeală strategică: ecosistemul a primit un impuls tehnologic masiv, dar cu prețul unei UX sever fragmentate. Utilizatorii nu internalizează pe deplin că L2-urile sunt Ethereum — dar simt foarte clar riscurile punților și fragmentării lichidității. Încă mă aștept ca acest lucru să fie rezolvat, pur și simplu pentru că prea multe echipe puternice lucrează la asta ca să lase lucrurile "așa cum sunt".
Al doilea vector major care s-a cristalizat cu adevărat pentru mine este coordonarea agenților onchain, în special agenții financiari: standarde precum ERC-8004 și protocoale de plată precum X402 ar putea deveni "sistemul de operare" de bază pentru modul în care agenții mută lichiditatea și interacționează între ei în anii următori. Plănuiesc să mă concentrez îndeaproape pe această intersecție între agenți, plăți și DeFi.
Și, desigur, subiectul meu principal — auditarea AI a contractelor inteligente. Ceea ce nu demult părea "o jucărie care ocazional găsește ceva" se transformă acum în unelte care detectează în mod fiabil probleme serioase și sunt deja folosite atât de auditori, cât și de dezvoltatori — uneori scoțând la suprafață lucruri pe care oamenii le ratează. A fost grozav să ne reconectăm cu oameni care construiesc produse care schimbă cu adevărat modul în care folosim DeFi și să ne simțim parte din acest proces.




872
AGI nu va apărea peste 2 ani: @ilyasut tocmai a eliminat mitul preferat al Silicon Valley
Într-un nou interviu acordat lui Dwarkesh Patel, Ilya Sutskever face o schimbare destul de bruscă în discuția despre viitorul AI: "era scalării simple s-a încheiat; De acum înainte, avem nevoie de descoperiri noi."
Dar pentru mine, cea mai importantă parte a acestui interviu nici măcar nu este sfârșitul abordării "pe primul loc". Este cronologia lui pentru AGI: de la 5 la 20 de ani. Cu alte cuvinte, una dintre persoanele din spatele celor mai puternice modele din lume ia în serios scenarii la peste 10 ani.
Acest lucru contrastează radical cu narațiunea "AGI în 1–2 ani" pe care o auzim mereu de la unii fondatori și investitori. Apoi trec 1–2 ani și vedem cât de departe erau așteptările de realitate: modelele au devenit mai puternice, dar tot nu este o "inteligență universală" care șterge totul. Când cineva de calibrul lui Sutskever spune "5–20 de ani", citesc asta astfel: vine, dar nu mâine, și probabil nici poimâine.
Din asta, există o concluzie practică importantă. Idei precum "orice startup ai construi — OpenAI o va consuma oricum" sau "orice profesie alegi — AGI o va distruge" par foarte exagerate. Piața se va schimba cu siguranță, și rapid după standardele istorice, dar oamenii și companiile vor avea o fereastră de adaptare. Cu o condiție: te pregătești deliberat pentru aceste schimbări — experimentezi cu AI în munca ta, investești timp în abilități noi, înveți să construiești sisteme peste modele în loc să "îți fie frică de ele".
În același timp, nici noi nu ar trebui să avem iluzii. Structura angajării se va schimba, unele roluri vor fi devalorizate, iar unii oameni vor fi cu adevărat afectați — în principal cei care au ales să "aștepte" și să nu schimbe nimic cât încă pot. Din punctul meu de vedere, deceniul care urmează nu este un moment de "schimbare magică a AGI", ci un proces lung, uneori dureros, de remodelare a piețelor și a competențelor. Și tocmai în această perioadă se va decide cine ajunge într-o poziție câștigătoare — și cine nu.

308
Monopolul hyperscalerilor asupra modelelor de frontieră este în declin: RL-ul descentralizat chiar funcționează!
Încă nu pot să înțeleg pe deplin faptul că cineva a reușit cu adevărat să facă antrenament descentralizat al unui model de limbaj mare.
Ani de zile, pentru mine, instruirea distribuită a însemnat durere: de îndată ce GPU-urile încep să fie fizic mai departe — chiar și în aceeași mașină — ai întâmpinat un overhead, probleme de sincronizare, blocaje în rețea și totul încetinește până la limită. Industria a rezolvat acest lucru cu centre de date costisitoare și rețele ultra-dense, care au ridicat instantaneu ștacheta atât de sus încât doar câteva companii din lume puteau juca la nivelul modelului de frontieră.
Și pe acest fundal, @PrimeIntellect lansează INTELLECT-3 — un model MoE 106B antrenat descentralizat, cu RL la scară largă deasupra. La benchmark-uri depășește GLM-4.5 și DeepSeek-R1-0528, iar la matematică oferă SOTA pentru dimensiunea sa (MATH-500, AIME24). Deci acesta nu este un "experiment interesant de descentralizare", ci un competitor de frontieră pe toată regula. Sincer, mă așteptam la ceva de genul "da, merge, dar calitatea e mult mai slabă." În schimb — acesta este un rezultat foarte serios.
Elementul cheie este cadrul lor asincron RL, prime-rl, care poate antrena un model pe un pool descentralizat de GPU: de la GPU-uri de consum până la centre de date independente operate de diferiți operatori. RL-ul asincron off-policy la această scară este un coșmar ingineresc, iar Prime sunt practic singurii care au reușit să devină un produs funcțional până acum. Pe lângă asta, au deschis sursa nu doar prime-rl, ci și INTELLECT-3 însuși (MIT/Apache 2.0) și setul de date SYNTHETIC-2, colectate prin inferență descentralizată (1250+ GPU-uri în trei zile). Acesta nu este doar "încă un model pe HF", ci o piesă de infrastructură care rupe vechea narațiune conform căreia modelele serioase sunt posibile doar în laboratoarele închise de hyperscaler.
Dacă un număr semnificativ de cercetători și startup-uri din întreaga lume ar avea acces la instrumente și infrastructură de acest fel, acest lucru ar putea accelera radical progresul în modelele de raționament și, în cele din urmă, ne-ar putea aduce mai aproape de AGI mai repede decât se așteptau mulți. Pentru mine, acesta pare unul dintre acele cazuri rare în care o barieră care părea structural insurmontabilă (rețea, coordonare, cost) începe brusc să se crape. Văd asta ca pe o realizare extrem de importantă — la nivelul unei "schimbări de traiectorie" pentru ecosistem, nu doar o altă lansare.

495
Limită superioară
Clasament
Favorite

