トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
偉大さを恐れないでください
ジュリアン・シュリットウィーザー(アンソロピック):
- XでのAIバブルに関する議論は、フロンティア研究所で起こっていることとは「非常に乖離している」。 「フロンティアの研究所では、進歩の鈍化は見られません。」
- AIは「莫大な経済的影響」をもたらすだろう。 OpenAI、Anthropic、Google の収益予測は実際には「かなり保守的」です。
- METR データなどから推定すると、来年には、モデルはあらゆるタスクを単独で処理できるようになります。タスクの長さは、人間がモデルのチームを監督し、それぞれが一度に何時間も自律的に動作する能力を解き放つため、重要です (フィードバックを与えるために 10 分ごとにエージェントと話さなければなりません)。
- AIモデルをトレーニングするための現在のアプローチ(事前トレーニング、RL)は、生産性の面で基本的に私たちが関心を持つすべてのタスクで、ほぼ人間のレベルで実行できるシステムを生み出す可能性が「非常に高い」です。
- 37 手中: 「これらのモデルが斬新なことができることは明らかだと思います。」 AlphaCodeとAlphaTensorは「新しいプログラムやアルゴリズムを発見できることを証明した」。 AI はすでに「絶対に斬新なものを発見している」としており、「AI が独自に発見できるものがどれほど印象的で興味深いかの規模を上げているだけです。」
- 来年中に、人々が満場一致で非常に印象的であることに同意するいくつかの発見がある可能性が高いです。
- AIは、2027年または2028年にノーベル賞にふさわしいブレークスルーを自力で行うことができるでしょう。
- AIの開発を加速させるAIの能力について:多くの科学分野で非常に一般的な問題は、分野が進歩するにつれて進歩することがますます困難になることです(つまり、100年前には、一人の科学者が偶然に最初の抗生物質を発見することができましたが、現在では新薬の発見に数十億ドルかかります)。 AIの研究でも同じことが起こるかもしれません - AIは新しいAIの研究をより生産的にしますが、新しい進歩を見つけるのがますます困難になっているため、爆発的な増加は起こらないかもしれません。

Matt Turck2025年10月24日
Failing to Understand the Exponential, Again?
My conversation with @Mononofu - Julian Schrittwieser (@AnthropicAI, AlphaGo Zero, MuZero) - on Move 37, Scaling RL, Nobel Prize for AI, and the AI frontier:
00:00 - Cold open: “We’re not seeing any slowdown.”
00:32 - Intro — Meet Julian
01:09 - The “exponential” from inside frontier labs
04:46 - 2026–2027: agents that work a full day; expert-level breadth
08:58 - Benchmarks vs reality: long-horizon work, GDP-Val, user value
10:26 - Move 37 — what actually happened and why it mattered
13:55 - Novel science: AlphaCode/AlphaTensor → when does AI earn a Nobel?
16:25 - Discontinuity vs smooth progress (and warning signs)
19:08 - Does pre-training + RL get us there? (AGI debates aside)
20:55 - Sutton’s “RL from scratch”? Julian’s take
23:03 - Julian’s path: Google → DeepMind → Anthropic
26:45 - AlphaGo (learn + search) in plain English
30:16 - AlphaGo Zero (no human data)
31:00 - AlphaZero (one algorithm: Go, chess, shogi)
31:46 - MuZero (planning with a learned world model)
33:23 -Lessons for today’s agents: search + learning at scale
34:57 - Do LLMs already have implicit world models?
39:02 - Why RL on LLMs took time (stability, feedback loops)
41:43 - Compute & scaling for RL — what we see so far
42:35 - Rewards frontier: human prefs, rubrics, RLVR, process rewards
44:36 - RL training data & the “flywheel” (and why quality matters)
48:02 - RL & Agents 101 — why RL unlocks robustness
50:51 - Should builders use RL-as-a-service? Or just tools + prompts?
52:18 - What’s missing for dependable agents (capability vs engineering)
53:51 - Evals & Goodhart — internal vs external benchmarks
57:35 - Mechanistic interpretability & “Golden Gate Claude”
1:00:03 - Safety & alignment at Anthropic — how it shows up in practice
1:03:48 - Jobs: human–AI complementarity (comparative advantage)
1:06:33 - Inequality, policy, and the case for 10× productivity → abundance
1:09:24 - Closing thoughts
203.12K
トップ
ランキング
お気に入り



