トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov
ネザーマインドのAuditAgentおよびAgentArenaの創設者 |Web3セキュリティ向けAIツール
ブエノスアイレスでの@EFDevconでの激しい一週間から戻ったばかりです。2つのパネルディスカッション、スマートコントラクト監査人の未来に関する講演、エージェントアリーナのワークショップ、そして@ETHGlobalハッカソンの審査。今年のDevconnectはまさにイーサリアム世界博覧会のような雰囲気でした。遠い未来についての会話は減り、すでに生産中で実際にお金を動かしている製品についての話が増えました。
私の核心的な結論は、@ethereum依然として長期的な導入において最も真剣なエコシステムのように見えるということです。特に分散型金融においては。他のエコシステムが勝ち目がないわけではありませんが、標準の成熟度、インフラの深さ、開発者の集中度は依然としてイーサリアム側に強く寄り添っています。
とはいえ、L2を通じたスケーリングの問題はまだ解決していません。私の見解では、戦略的な誤りがありました。エコシステムは大幅な技術的ブーストを得ましたが、その代償としてUXは深刻に断片化されてしまいました。ユーザーはL2がイーサリアムであることを完全には理解していませんが、ブリッジや流動性の断片化のリスクをはっきりと感じています。私はこれを修正することを期待しています。なぜなら、あまりにも多くの強力なチームが取り組んでいるため、現状をそのままにしておくわけにはいかないからです。
私にとって本当に明確になったもう一つの大きな方向性はオンチェーンエージェントの調整、特に金融エージェントです。ERC-8004のような標準やX402のような決済プロトコルが、今後数年でエージェント同士の流動性移動や相互作用の基盤となる可能性があります。私はエージェント、決済、DeFiの交差点に注力する予定です。
そしてもちろん、私の主なテーマはスマートコントラクトのAI監査です。つい最近までは「たまに何かを見つけるおもちゃ」と思われていたものが、今では深刻な問題を確実に検出するツールへと変わり、監査人や開発者の両方がすでに利用しています。時には人間が見落としている部分を明らかにすることもあります。DeFiの使い方を本当に変える製品を作っている人々と再びつながることができ、そのプロセスの一部であると感じられました。




857
AGIは2年以内に到来しない:@ilyasutシリコンバレーのお気に入りの神話を終わらせた
Dwarkesh Patelとの新しいインタビューで、イリヤ・スツケヴァーはAIの未来についての議論でかなり鋭い方向転換をしています。「単純なスケーリングの時代は終わりました。ここからは新たな発見が必要だ。」
しかし私にとって、このインタビューで最も重要なのは「計算優先」アプローチの終わりですらありません。それは彼のAGIのタイムラインです:5年から20年です。言い換えれば、世界で最も強力なモデルの背後にいる人物の一人が、10年以上前のシナリオを真剣に面白く描いているのです。
これは、一部の創業者や投資家からよく聞く「1〜2年でAGI」という話とは大きく対照的です。そして1〜2年が過ぎ、期待がどれほど現実からかけ離れていたかが明らかになります。モデルはより強力になりましたが、それでもすべてを消し去る「普遍的知性」ではありません。サツケヴァーのような人物が「5〜20年」と言うとき、私はそれを「来るけれど明日ではないし、おそらく明後日でもない」と読み取る。
ここから重要な実用的な結論があります。「どんなスタートアップを作ってもOpenAIはそれを飲み込む」とか「どんな職業を選んでもAGIが破壊する」といった考えは大げさに聞こえます。市場は確実に変化し、歴史的な基準から見れば速いですが、人々や企業は適応する時間を持つでしょう。ただし一つ条件があります。こうした変化に備えること――AIを仕事で実験し、新しいスキルに時間を投資し、単に「怖がる」のではなく、モデルの上にシステムを構築することを学ぶことです。
同時に、幻想を抱いてはいけません。雇用構造は変わり、一部の役割は価値を下げられ、特に「待って」何も変えられなかった人たちが本当に打撃を受けるでしょう。私の見解では、今後の10年は「魔法のAGIスイッチ」の瞬間ではなく、市場と能力の再構築という長く時に苦しいプロセスです。そしてまさにこの期間中に、誰が勝てるか、誰がそうでないかが決まるのです。

299
ハイパースケーラーによるフロンティアモデルの独占は崩れています。分散型強化学習は実際に機能しています!
誰かが大規模言語モデルの分散型トレーニングを実際に成功させたという事実を、いまだに完全には理解できません。
長年、分散トレーニングは私にとって苦痛と等しいものでした。GPU同士が物理的に離れ始めると、同じマシン内でさえも、オーバーヘッドや同期の問題、ネットワークのボトルネックが発生し、すべてが極端に遅くなります。業界は高価なデータセンターと超高密度ネットワークでこれを解決し、世界で限られた企業しかフロンティアモデルレベルでプレイできないハードルを即座に引き上げました。
このような背景のもと、@PrimeIntellectはINTELLECT-3をリリースします。これは106BのMoEモデルで、分散的に訓練され、その上に大規模な強化学習が搭載されています。ベンチマークではGLM-4.5やDeepSeek-R1-0528を上回り、数学的にはサイズに対してSOTA(MATH-500、AIME24)を達成しています。つまり、これは「興味深い分散化実験」ではなく、完全なフロンティアレベルの競争相手なのです。正直なところ、「動くけど品質はずっと悪い」といった感じを期待していました。しかし、これは非常に深刻な結果です。
重要なのは、非同期強化学習フレームワーク(prime-rl)で、分散型GPUプール上でモデルを訓練できます。消費者向けGPUから異なるオペレーターが運営する独立したデータセンターまで。その規模での非同期オフポリシー強化学習はエンジニアリング上の悪夢であり、Primeだけがこれまでに動作する製品にまでまで押し上げています。さらに、prime-rlだけでなく、INTELLECT-3自体(MIT/Apache 2.0)やSYNTHETIC-2データセットもオープンソース化しました。これらは分散型推論(3日間で1250+GPU)で収集されました。これは単なる「また新たなHFモデル」ではなく、本格的なモデルは閉鎖されたハイパースケーラー研究所の中だけ可能だという古い物語を打ち破るインフラの一環です。
もし世界中の多くの研究者やスタートアップがこのようなツールやインフラにアクセスできるようになれば、推論モデルの進歩は劇的に加速し、最終的には多くの人が予想していたよりも早くAGIに近づくことができるでしょう。私には、これは構造的に乗り越えられないと思われていた壁(ネットワーク、調整、コスト)が突然ひび割れ始める稀なケースのように見えます。私はこれを、単なるリリースではなく、エコシステムの「軌道の変化」というレベルでの非常に重要な成果と考えています。

485
トップ
ランキング
お気に入り

