热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲

Kirill Balakhonov
Nethermind 的 AuditAgent 和 AgentArena 的创建者 |用于 Web3 安全的人工智能工具
刚从布宜诺斯艾利斯的@EFDevcon经历了一周紧张的活动回来:两场小组讨论,一场关于智能合约审计师未来的演讲,一个Agent Arena工作坊,以及评审@ETHGlobal黑客马拉松。今年的Devconnect真切地感觉像是以太坊世博会——关于某个遥远未来的对话少了,更多的是关于已经在生产中并且正在移动真实资金的产品。
我最大的收获是:@ethereum仍然看起来是长期采用中最严肃的生态系统,尤其是在去中心化金融领域。这并不意味着其他生态系统没有机会——但标准的成熟度、基础设施的深度以及开发者的集中度仍然非常倾向于以太坊。
话虽如此,通过L2扩展的故事远未解决。在我看来,这里有一个战略失误:生态系统获得了巨大的技术提升,但代价是用户体验的严重碎片化。用户并没有完全内化L2是以太坊——但他们非常清楚地感受到桥接和流动性碎片化的风险。我仍然期待这个问题会得到解决,因为太多强大的团队正在努力,不会让事情“保持现状”。
第二个让我真正清晰的主要方向是链上代理协调,特别是金融代理:像ERC‑8004这样的标准和像X402这样的支付协议可能会成为未来几年代理如何移动流动性和相互互动的基础“操作系统”。我计划密切关注代理、支付和DeFi的交集。
当然,我的主要话题——智能合约的AI审计。曾经看起来“只是一个偶尔能发现问题的玩具”的工具,现在正在转变为可靠捕捉严重问题的工具,已经被审计师和开发者使用——有时能发现人类遗漏的东西。能够重新与那些真正改变我们使用DeFi方式的人建立联系,感觉自己是这个过程的一部分,真是太好了。




858
AGI 不会在 2 年内到来:@ilyasut 刚刚打破了硅谷最喜欢的神话
在与 Dwarkesh Patel 的新采访中,Ilya Sutskever 在关于 AI 未来的对话中做出了相当大的转变:“简单扩展的时代已经结束;从现在开始,我们需要新的发现。”
但对我来说,这次采访中最重要的部分甚至不是“计算优先”方法的结束。它是他对 AGI 的时间表:从 5 年到 20 年。换句话说,世界上最强大的模型背后的一位人士正在认真考虑超过 10 年的情景。
这与我们不断听到的一些创始人和投资者的“1-2 年内实现 AGI”的叙述形成了鲜明的对比。然后 1-2 年过去了,我们看到期望与现实之间的差距有多大:模型变得更强大,但这仍然不是一种“通用智能”,可以消灭一切。当像 Sutskever 这样的人说“5-20 年”时,我解读为:它会到来,但不是明天,可能也不是后天。
由此得出一个重要的实际结论。像“无论你建立什么初创公司——OpenAI 都会吞噬它”或“无论你选择什么职业——AGI 都会摧毁它”这样的想法听起来非常夸张。市场肯定会变化,并且在历史标准下变化迅速,但人们和公司将有一个适应的窗口。前提是:你要有意识地为这些变化做好准备——在你的工作中尝试 AI,投入时间学习新技能,学会在模型之上构建系统,而不是仅仅“害怕它们”。
与此同时,我们也不应该抱有幻想。就业结构将会改变,一些角色将被贬值,确实会有一些人受到影响——主要是那些选择“静观其变”而在仍然可以改变的时候什么都不做的人。在我看来,未来十年不是一个“魔法 AGI 开关”的时刻,而是一个漫长的、有时痛苦的市场和能力重塑过程。正是在这个时期,将决定谁最终处于赢家的位置——谁又不是。

300
超大规模公司的边缘模型垄断正在破裂:去中心化的强化学习实际上是有效的!
我仍然无法完全理解,居然有人成功实现了大型语言模型的去中心化训练。
多年来,对我来说,分布式训练等同于痛苦:一旦GPU开始物理上相距较远——即使在同一台机器内——你就会遇到开销、同步问题、网络瓶颈,所有一切都变得缓慢。行业通过昂贵的数据中心和超密集的网络解决了这个问题,这瞬间将门槛抬得如此之高,只有世界上少数几家公司能够在边缘模型的层面上竞争。
在这种背景下,@PrimeIntellect 发布了 INTELLECT‑3——一个106B MoE模型,经过去中心化训练,并在其上进行了大规模的强化学习。在基准测试中,它击败了 GLM‑4.5 和 DeepSeek‑R1‑0528,并且在数学上为其规模提供了 SOTA(MATH‑500,AIME24)。所以这不是一个“有趣的去中心化实验”,而是一个完全成熟的边缘级竞争者。老实说,我原本期待的是“是的,它可以运行,但质量要差得多。”相反——这是一个非常严肃的结果。
关键在于他们的异步强化学习框架 prime‑rl,它可以在去中心化的 GPU 池上训练模型:从消费级 GPU 到由不同运营商运行的独立数据中心。在这个规模上,异步离线策略强化学习是一个工程噩梦,而 Prime 基本上是唯一一个将其推向可用产品的公司。此外,他们不仅开源了 prime‑rl,还开源了 INTELLECT‑3 本身(MIT/Apache 2.0)和通过去中心化推理收集的 SYNTHETIC‑2 数据集(1250+ GPU,历时三天)。这不仅仅是“HF 上又一个模型”,而是一个打破了严肃模型只能在封闭的超大规模实验室中实现的旧叙事的基础设施。
如果全球有意义数量的研究人员和初创公司能够获得这样的工具和基础设施,这可能会在推理模型的进展上产生根本性的加速,并最终比许多人预期的更快地将我们带向 AGI。在我看来,这看起来像是一个罕见的案例,其中一个看似结构上不可逾越的障碍(网络、协调、成本)突然开始破裂。我将其视为一个极其重要的成就——在生态系统层面上是一次“轨迹变化”,而不仅仅是另一个发布。

486
热门
排行
收藏

