メインコンテンツへスキップ
マーケット
Meme Pump
トラッカー
シグナル
リーダーボード
スワップ
ポートフォリオ
紹介
さらに見る
商品
DeFi
マケプレ
インサイトハブ
エコシステム案内所
セキュリティ
開発者向け
X Layer
X Layer について学ぶ
X Layer エクスプローラー
チェーン間取引
開発者向けテクニカルドキュメント
テストネットフォーセット
GitHub
ウォレット API
ウォレット API を発見する
API ドキュメント
API キーを管理する
ブロックチェーンエクスプローラー
DAppでウォレットを連携する
Boost
X Launch
参加してトークンを獲得しよう
プロジェクト特典
タスクを完了してエアドロップを手に入れよう
取引コンペティション
トレンドのトークンを取引して賞金を獲得しよう
報酬センター
ボーナスとエアドロップを受け取る
アラート
言語
通貨
OKX ウォレットをダウンロード
Web3 の詳細
お知らせ
戻る
日本語
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
Norsk (bokmål)
Suomi
Svenska
戻る
戻る
詳しく知る
サポートセンター
What can I do with Discover
トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
Hosico
+3.82%
USELESS
+1.93%
IKUN
+5.9%
gib
+15.62%
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
Bonk
+1.7%
ALON
+25.16%
LAUNCHCOIN
-3.74%
GOONC
-2.8%
KLED
+25.68%
#
Boop.Fun leading the way with a new launchpad on Solana.
BOOP
-3.52%
Boopa
-9.21%
PORK
+5.11%
Profile
Dwarkesh Patel
Dwarkesh Patel
22時間前
「今のモデルたちで非常に混乱している点の一つは、評価でこれほど良い成績を収めているという事実をどう折り合いつけるかということです。 評価を見て、『かなり厳しい評価だ』と思います。 しかし、経済的影響は劇的に遅れているようです。 [可能な]説明があります。かつては、誰がプレトレーニングをしていたかという問いは、どのデータでトレーニングするかという問いに答えがありました。なぜなら、その答えがすべてだったからです。だから、このデータかあれのデータかを考える必要はありません。 人々が強化学習のトレーニングを行うとき、『この種の強化学習を、あれらの強化学習をあれにしたい』と言います。 「モデルがリリースされたら本当に成功してほしいです」と言います。評価結果を素晴らしく見せたいのです。この課題に役立つ現実学習のトレーニングにはどんなものがあるでしょうか?」 これに加えて、モデルが実際には不十分であるという一般化を組み合わせれば、評価成績と実際のパフォーマンスの乖離を説明できる可能性があります。
Dwarkesh Patel
11月26日 01:29
@ilyasutエピソード 0:00:00 – モデルのギザギザ性の説明 0:09:39 - 感情と価値関数 0:18:49 – 何をスケールしている? 0:25:13 – なぜ人間はモデルよりも一般化が得意なのか 0:35:45 – ストレートシュートの超知能 0:46:47 – SSIのモデルはデプロイから学習 0:55:07 – アライメント 1:18:13 – 「私たちはまさに研究時代の会社です」 1:29:23 – セルフプレイとマルチエージェント 1:32:42 – 研究の味覚 YouTube、Apple Podcasts、SpotifyでDwarkesh Podcastを検索してみてください。楽しむ!
307.45K
1.24K
Dwarkesh Patel
11月26日 03:55
「アイデアよりも会社の数がずっと多い。 計算量は十分に大きいため、あるアイデアを証明するのにそれほど多くの計算が必要だとは明らかではありません。 AlexNetは2つのGPUで構築されました。トランスは8から64のGPUで構成されていました。つまり、今日のGPUは2台くらいでしょうか?o1推論は世界で最も計算負荷の高いものではなかったと主張することもできます。 研究には確かにある程度の計算量が必要ですが、絶対に最大量の計算量が必要だとは決して明白ではありません。 もし全員が同じ範疇内にいるなら、計算は大きな差別化要因の一つになります。」 @ilyasut
Dwarkesh Patel
11月26日 01:29
@ilyasutエピソード 0:00:00 – モデルのギザギザ性の説明 0:09:39 - 感情と価値関数 0:18:49 – 何をスケールしている? 0:25:13 – なぜ人間はモデルよりも一般化が得意なのか 0:35:45 – ストレートシュートの超知能 0:46:47 – SSIのモデルはデプロイから学習 0:55:07 – アライメント 1:18:13 – 「私たちはまさに研究時代の会社です」 1:29:23 – セルフプレイとマルチエージェント 1:32:42 – 研究の味覚 YouTube、Apple Podcasts、SpotifyでDwarkesh Podcastを検索してみてください。楽しむ!
169.59K
736
Dwarkesh Patel
11月26日 03:10
「2012年から2020年までは研究の時代でした。2020年から2025年まではスケーリングの時代でした。 スケールを100倍にすれば、すべてが変わるという信念でしょうか? それは違うと思います。また研究の時代に戻ったのですが、大きなコンピューターが使われています。」 @ilyasut
Dwarkesh Patel
11月26日 01:29
@ilyasutエピソード 0:00:00 – モデルのギザギザ性の説明 0:09:39 - 感情と価値関数 0:18:49 – 何をスケールしている? 0:25:13 – なぜ人間はモデルよりも一般化が得意なのか 0:35:45 – ストレートシュートの超知能 0:46:47 – SSIのモデルはデプロイから学習 0:55:07 – アライメント 1:18:13 – 「私たちはまさに研究時代の会社です」 1:29:23 – セルフプレイとマルチエージェント 1:32:42 – 研究の味覚 YouTube、Apple Podcasts、SpotifyでDwarkesh Podcastを検索してみてください。楽しむ!
207.16K
1K
トップ
ランキング
お気に入り