熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁

Kirill Balakhonov
Nethermind 的 AuditAgent 與 AgentArena |用於 Web3 安全的 AI 工具
剛從布宜諾斯艾利斯的 @EFDevcon 回來,這一周非常緊湊:兩場小組討論、一場關於智能合約審計師未來的演講、一個 Agent Arena 工作坊,以及評審 @ETHGlobal 黑客馬拉松。今年的 Devconnect 確實讓我感覺像是一場以以太坊為主題的世界博覽會——不再是關於某個遙遠未來的對話,而是更多關於已經在生產中運行並移動真實資金的產品。
我最重要的收穫是:@ethereum 仍然看起來是長期採用中最認真的生態系統,特別是在去中心化金融方面。這並不意味著其他生態系統沒有機會——但標準的成熟度、基礎設施的深度以及開發者的集中度仍然非常有利於以太坊。
話雖如此,通過 L2 擴展的故事遠未解決。在我看來,這是一個戰略失誤:生態系統獲得了巨大的技術提升,但代價是用戶體驗的嚴重碎片化。用戶並未完全內化 L2 是以太坊——但他們非常清楚地感受到橋接和流動性碎片化的風險。我仍然預期這會得到解決,因為有太多強大的團隊在努力,無法讓事情“保持現狀”。
第二個真正讓我清晰的主要向量是鏈上代理協調,特別是金融代理:像 ERC‑8004 這樣的標準和像 X402 這樣的支付協議可能會成為未來幾年代理如何移動流動性和相互交互的基礎“操作系統”。我計劃密切關注這些代理、支付和 DeFi 的交集。
當然,我的主要話題——智能合約的 AI 審計。曾經看起來像“偶爾能找到一些東西的玩具”現在正轉變為可靠捕捉嚴重問題的工具,並且已經被審計師和開發者使用——有時能發現人類忽略的問題。能夠重新聯繫到那些真正改變我們使用 DeFi 方式的產品的建設者,並感受到自己是這個過程的一部分,真是太好了。




859
AGI 不會在兩年內到來:@ilyasut 剛剛打破了矽谷最喜愛的神話
在與 Dwarkesh Patel 的新訪談中,Ilya Sutskever 在關於 AI 未來的對話中做出了相當明確的轉變:“簡單擴展的時代已經結束;從現在開始,我們需要新的發現。”
但對我來說,這次訪談中最重要的部分甚至不是“計算優先”方法的結束。這是他對 AGI 的時間表:從 5 年到 20 年。換句話說,世界上最強大的模型背後的一位專家正在認真考慮超過 10 年的情景。
這與我們不斷聽到的一些創始人和投資者的“1-2 年內實現 AGI”敘述形成了激烈的對比。然後 1-2 年過去,我們看到期望與現實之間的距離有多遠:模型變得更強大,但這仍然不是一種“普遍智能”,可以消滅一切。當像 Sutskever 這樣的專家說“5-20 年”時,我解讀為:它會來,但不是明天,可能也不是後天。
從這一點來看,有一個重要的實際結論。像“無論你建立什麼初創公司——OpenAI 都會吞噬它”或“無論你選擇什麼職業——AGI 都會摧毀它”這樣的想法聽起來過於誇張。市場肯定會改變,並且按照歷史標準快速變化,但人們和公司將有一段時間來適應。前提是:你要有意識地為這些變化做好準備——在你的工作中實驗 AI,投入時間學習新技能,學會在模型之上構建系統,而不僅僅是“害怕它們”。
同時,我們也不應該抱有幻想。就業結構將會改變,一些角色將被貶值,確實會有一些人受到影響——主要是那些選擇“靜觀其變”而在仍然可以的時候不做任何改變的人。在我看來,未來十年不是一個“魔法 AGI 開關”的時刻,而是一個漫長的、有時痛苦的市場和能力重塑過程。正是在這個時期,將決定誰最終處於獲勝的位置——誰又不會。

301
超大規模雲端服務商對前沿模型的壟斷正在瓦解:去中心化的強化學習實際上是可行的!
我仍然無法完全理解,居然有人成功實現了大型語言模型的去中心化訓練。
多年來,對我來說,分散式訓練等同於痛苦:一旦 GPU 開始物理上相距較遠——即使在同一台機器內——你就會遇到開銷、同步問題、網絡瓶頸,所有一切都會變得緩慢。業界用昂貴的數據中心和超高密度的網絡解決了這個問題,這瞬間將門檻提高到只有少數幾家公司能夠在前沿模型層面競爭。
在這樣的背景下,@PrimeIntellect 發布了 INTELLECT‑3——一個 106B MoE 模型,通過去中心化訓練,並在其上進行大規模的強化學習。在基準測試中,它超越了 GLM‑4.5 和 DeepSeek‑R1‑0528,並在數學上為其大小提供了 SOTA(MATH‑500,AIME24)。所以這不是一個“有趣的去中心化實驗”,而是一個完全成熟的前沿級競爭者。老實說,我原本預期會是“是的,它能運行,但質量差得多。”相反——這是一個非常認真的結果。
關鍵在於他們的非同步強化學習框架 prime‑rl,這可以在去中心化的 GPU 池上訓練模型:從消費者 GPU 到由不同運營商運行的獨立數據中心。在這種規模下的非同步離線強化學習是一場工程噩夢,而 Prime 基本上是唯一一個將其推進到可運行產品的公司。此外,他們不僅開源了 prime‑rl,還開源了 INTELLECT‑3 本身(MIT/Apache 2.0)和通過去中心化推理收集的 SYNTHETIC‑2 數據集(1250+ GPU 在三天內)。這不僅僅是“又一個 HF 上的模型”,而是一個打破舊敘事的基礎設施,這種敘事認為只有在封閉的超大規模雲端實驗室內才能實現嚴肅的模型。
如果全球有意義的研究人員和初創公司能夠獲得這樣的工具和基礎設施,這可能會徹底加速推理模型的進展,最終比許多人預期的更快地將我們帶向 AGI。對我來說,這看起來像是那些看似結構性不可逾越的障礙(網絡、協調、成本)突然開始破裂的罕見情況之一。我將這視為一個極其重要的成就——在生態系統層面上是一個“軌跡變化”,而不僅僅是另一個發布。

487
熱門
排行
收藏

