Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov
Maker van Nethermind's AuditAgent en AgentArena | AI-tools voor Web3-beveiliging
Net terug van een intense week op @EFDevcon in Buenos Aires: twee paneldiscussies, een lezing over de toekomst van smart contract auditors, een Agent Arena workshop en het jureren van de @ETHGlobal Hackathon. Dit jaar voelde Devconnect echt als een Ethereum Wereldtentoonstelling — minder gesprekken over een verre toekomst en meer over producten die al live zijn in productie en echt geld bewegen.
Mijn belangrijkste conclusie: @ethereum lijkt nog steeds het meest serieuze ecosysteem voor langdurige adoptie, vooral in gedecentraliseerde financiën. Dat betekent niet dat andere ecosystemen geen kans maken — maar de volwassenheid van standaarden, diepte van infrastructuur en concentratie van ontwikkelaars zijn nog steeds sterk in het voordeel van Ethereum.
Dat gezegd hebbende, het verhaal van schaling via L2's is verre van opgelost. Naar mijn mening was er een strategische misstap: het ecosysteem kreeg een enorme technologische boost, maar ten koste van een ernstig gefragmenteerde gebruikerservaring. Gebruikers internaliseren niet volledig dat L2's Ethereum zijn — maar ze voelen heel duidelijk de risico's van bruggen en liquiditeitsfragmentatie. Ik verwacht nog steeds dat dit opgelost zal worden, simpelweg omdat te veel sterke teams eraan werken om dingen "zoals ze zijn" te laten.
De tweede belangrijke vector die echt voor mij kristalliseerde, is onchain agentcoördinatie, vooral financiële agenten: standaarden zoals ERC‑8004 en betalingsprotocollen zoals X402 zouden de basis "besturingssysteem" kunnen worden voor hoe agenten liquiditeit verplaatsen en met elkaar interageren in de komende jaren. Ik ben van plan me nauw te concentreren op deze kruising van agenten, betalingen en DeFi.
En natuurlijk, mijn belangrijkste onderwerp — AI-auditing van smart contracts. Wat niet zo lang geleden leek op "een speeltje dat af en toe iets vindt", verandert nu in tools die betrouwbaar ernstige problemen opsporen en al worden gebruikt door zowel auditors als ontwikkelaars — soms dingen aan het licht brengend die mensen missen. Het was geweldig om weer in contact te komen met mensen die producten bouwen die echt veranderen hoe we DeFi gebruiken en om me een deel van dat proces te voelen.




838
AGI zal niet binnen 2 jaar arriveren: @ilyasut heeft zojuist de favoriete mythe van Silicon Valley vernietigd
In een nieuw interview met Dwarkesh Patel maakt Ilya Sutskever een vrij scherpe wending in het gesprek over de toekomst van AI: “het tijdperk van eenvoudige opschaling is voorbij; vanaf hier hebben we nieuwe ontdekkingen nodig.”
Maar voor mij is het belangrijkste deel van dit interview zelfs niet het einde van de “compute‑first” benadering. Het is zijn tijdlijn voor AGI: van 5 tot 20 jaar. Met andere woorden, een van de mensen achter de krachtigste modellen ter wereld overweegt serieus scenario's die meer dan 10 jaar in de toekomst liggen.
Dat staat in radicale tegenstelling tot het verhaal van “AGI in 1–2 jaar” dat we blijven horen van sommige oprichters en investeerders. Dan verstrijken er 1–2 jaar, en zien we hoe ver de verwachtingen van de werkelijkheid verwijderd waren: modellen zijn krachtiger geworden, maar dit is nog steeds geen “universele intelligentie” die alles uitwist. Wanneer iemand van Sutskever’s kaliber zegt “5–20 jaar,” lees ik dat als: het komt eraan, maar niet morgen, en waarschijnlijk ook niet de dag daarna.
Hieruit volgt een belangrijke praktische conclusie. Ideeën zoals “wat voor startup je ook bouwt — OpenAI zal het toch opeten” of “welk beroep je ook kiest — AGI zal het vernietigen” klinken zwaar overdreven. De markt zal zeker veranderen, en snel volgens historische normen, maar mensen en bedrijven zullen een kans hebben om zich aan te passen. Onder één voorwaarde: je bereidt je opzettelijk voor op deze veranderingen — je experimenteert met AI in je werk, investeert tijd in nieuwe vaardigheden, leert systemen te bouwen bovenop modellen in plaats van alleen maar “bang voor ze te zijn.”
Tegelijkertijd moeten we ook geen illusies hebben. De structuur van werkgelegenheid zal veranderen, sommige rollen zullen in waarde afnemen, en sommige mensen zullen echt worden geraakt — voornamelijk degenen die ervoor hebben gekozen om “het uit te zitten” en niets te veranderen terwijl ze dat nog konden. Naar mijn mening is het komende decennium geen moment van een “magische AGI-schakelaar,” maar een lang, soms pijnlijk proces van het hervormen van markten en competenties. En het is precies tijdens deze periode dat zal worden beslist wie in een winnende positie eindigt — en wie niet.

297
De monopolie van hyperscalers op grensmodellen begint te kraken: gedecentraliseerde RL werkt echt!
Ik kan nog steeds niet helemaal bevatten dat iemand daadwerkelijk gedecentraliseerde training van een groot taalmodel heeft uitgevoerd.
Jarenlang was gedistribueerde training voor mij gelijk aan pijn: zodra GPU's fysiek verder uit elkaar beginnen te staan — zelfs binnen dezelfde machine — krijg je overhead, synchronisatieproblemen, netwerkflessenhalzen, en alles vertraagt tot een slakkengang. De industrie heeft dit opgelost met dure datacenters en ultra-dense netwerken, wat de lat zo hoog legde dat slechts een handvol bedrijven ter wereld op het niveau van grensmodellen kon spelen.
En tegen deze achtergrond brengt @PrimeIntellect INTELLECT‑3 uit — een 106B MoE-model dat gedecentraliseerd is getraind, met grootschalige RL erbovenop. Op benchmarks verslaat het GLM‑4.5 en DeepSeek‑R1‑0528, en qua wiskunde levert het SOTA voor zijn grootte (MATH‑500, AIME24). Dit is dus geen "interessant decentralisatie-experiment", het is een volwaardige concurrent op grensniveau. Eerlijk gezegd verwachtte ik iets als "ja, het draait, maar de kwaliteit is veel slechter." In plaats daarvan — dit is een zeer serieus resultaat.
Het belangrijkste stuk is hun asynchrone RL-framework, prime‑rl, dat een model kan trainen op een gedecentraliseerde GPU-pool: van consument GPU's tot onafhankelijke datacenters die door verschillende operators worden beheerd. Asynchrone off-policy RL op die schaal is een engineering-nachtmerrie, en Prime is in wezen de enige die het helemaal heeft doorgezet naar een werkend product tot nu toe. Daarbovenop hebben ze niet alleen prime‑rl open-source gemaakt, maar ook INTELLECT‑3 zelf (MIT/Apache 2.0) en de SYNTHETIC‑2 dataset, verzameld via gedecentraliseerde inferentie (1250+ GPU's over drie dagen). Dit is niet zomaar "weer een model op HF", het is een stuk infrastructuur dat het oude verhaal doorbreekt dat serieuze modellen alleen mogelijk zijn binnen gesloten hyperscaler-laboratoria.
Als een aanzienlijk aantal onderzoekers en startups wereldwijd toegang krijgt tot tools en infrastructuur zoals deze, kan dit de vooruitgang in redeneermodellen radicaal versnellen en ons uiteindelijk sneller dichter bij AGI brengen dan velen hadden verwacht. Voor mij lijkt dit een van die zeldzame gevallen waarin een barrière die structureel onoverkomelijk leek (netwerk, coördinatie, kosten) plotseling begint te kraken. Ik beschouw dit als een waanzinnig belangrijke prestatie — op het niveau van een "trajectverandering" voor het ecosysteem, niet slechts een andere release.

480
Boven
Positie
Favorieten

