Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: 54.000 $ pro Monate 🎙️ https://t.co/fmB6Zf5n9X: 32.000 $ pro Monate 💼 https://t.co/hNxFPvj3v1: 31.000 $ pro Monat 🤝 https://t.co/SqC3jTyhav: 28.000 $ pro Monate
Jeder macht das falsch.
Der Tweet zeigt Schornsteine, aber Intersect Power ist ein Unternehmen für saubere Energie mit 2,2 GW Solar- und 2,4 GWh Batteriespeicher, die bereits in Betrieb sind. Das Erdgas ist eine Backup-Lösung für Zeiten, in denen Wind und Solar die anderen 30 % nicht abdecken können.
Die eigentliche Geschichte ist, was Google tatsächlich kauft: Geschwindigkeit.
Die US-Rechenzentren haben im letzten Jahr 183 Terawattstunden verbraucht. Diese Zahl verdoppelt sich bis 2030. Jeder Hyperscaler hat mehr Nachfrage als Kapazität. Andy Jassy hat es im Gewinnaufruf von Amazon zugegeben. Das Stromnetz kann nicht mithalten.
Also hat Google sich komplett um das Stromnetz herum gekauft.
Das Modell von Intersect platziert die Stromerzeugung direkt bei den Rechenzentren. Baue die Solarfarm, die Batterieanlage und das Rechenzentrum am selben Standort. Kein Warten auf die Anbindung an das Versorgungsnetz. Keine Übertragungsengpässe. Keine Kosten, die an die Verbraucher weitergegeben werden, die sich nicht für den AI-Boom angemeldet haben.
Bis 2028 erwartet Intersect, dass 10,8 Gigawatt online oder in Entwicklung sind. Das ist mehr als 20 Mal die Hoover-Talsperre.
Amazon gibt in diesem Jahr 100 Milliarden Dollar für AI-Infrastruktur aus. Microsoft gibt 80 Milliarden Dollar aus. Google gibt 75 Milliarden Dollar aus. Das sind 255 Milliarden Dollar von drei Unternehmen in einem Jahr, und sie kämpfen alle um denselben begrenzten Input: Elektrizität.
Google hat gerade garantierten Zugang zu dieser Einschränkung gekauft, während alle anderen mit den Versorgungsunternehmen verhandeln.
Die 4,75 Milliarden Dollar sind nicht die Geschichte. Es ist das, was sie nicht kaufen mussten: Zeit.

Pubity25. Dez., 00:43
Google hat gerade 4,75 Milliarden Dollar ausgegeben, um ein ganzes Energieunternehmen zu erwerben, um ihre AI-Datenzentren zu versorgen.


380
Alle konzentrieren sich darauf, wer die auffälligste humanoide Demo liefert. Jim Fan hat Ihnen gerade das eigentliche Rennen erklärt: Wer kann genügend synthetische Physikdaten generieren, um eine Lücke von 100.000 Jahren zu schließen.
Diese Zahl ist keine Übertreibung. Ken Goldberg von Berkeley hat berechnet, dass die Textdaten, die zum Trainieren von LLMs verwendet werden, 100.000 Jahre dauern würden, um von einem Menschen gelesen zu werden. Roboter haben fast keinen Zugang zu dem Äquivalent für physische Manipulation. Jeder Griff, jeder Stolperer, jede Gewichtsverlagerung muss von Grund auf neu gelernt oder simuliert werden.
Deshalb liefert Fans Labor innerhalb von neun Monaten drei Modellversionen (N1 im März, N1.5 im Juni, N1.6 im Dezember), während die meisten Robotikunternehmen immer noch reale Demos sammeln. NVIDIA konkurriert nicht nur im Hardware-Bereich. Sie konkurrieren mit ihrer Fähigkeit, unbegrenzte synthetische Trainingsdaten über Omniverse zu generieren.
Der GR00T-Stack offenbart die Strategie: GR00T Dreams generiert synthetische Videodaten. GR00T-Gen erstellt Simulationsumgebungen. GR00T-Mimic generiert Trajektorien. Jedes Element existiert, um die Physikdaten zu erzeugen, die im Internet nicht existieren.
Fans Rahmen „Physikalischer Turing-Test“ ist präzise. Wir werden Systeme bauen, die über Proteine nachdenken und Theoreme beweisen können, bevor wir Systeme bauen, die zuverlässig Wäsche falten können. Physical Intelligence hat dies letzte Woche demonstriert, als sie die Aufgaben der „Robot Olympics“-Herausforderung von Benjie Holson angegangen sind. Ihr Modell hat in 3 von 5 Kategorien Goldmedaillen gewonnen. Aber beachten Sie, was sie nicht lösen konnten: Aufgaben, die den Einsatz von Werkzeugen mit spezifischen physikalischen Eigenschaften erforderten. Die Grenze ist nicht das Denken. Es sind die Kontaktdynamiken.
OpenAI und Anthropic skalieren, indem sie das Internet durchsuchen. Physikalische KI hat kein Internet, das sie durchsuchen kann. Das Team, das gewinnt, ist das, das herausfindet, wie man 100 Millionen Stunden physikalische Erfahrung in Simulationen herstellt und in die reale Welt überträgt.
NVIDIA mit seinem Grafik-DNA, der Simulationsinfrastruktur und einem 30-köpfigen Team, das systematisch Grundmodelle open-source macht, könnte besser positioniert sein als jeder andere, um genau das zu tun.

Jim Fan25. Dez., 01:26
Ich bin auf einer einzigartigen Mission, den physischen Turing-Test für Robotik zu lösen. Es ist die nächste, oder vielleicht DIE letzte große Herausforderung der KI. Superintelligenz in Textstrings wird einen Nobelpreis gewinnen, bevor wir Schimpansenintelligenz in Agilität und Geschicklichkeit haben. Moravecs Paradoxon ist ein Fluch, der gebrochen werden muss, eine Mauer, die eingerissen werden muss. Nichts kann zwischen der Menschheit und exponentieller physischer Produktivität auf diesem Planeten stehen, und vielleicht eines Tages auf Planeten darüber hinaus.
Wir haben ein kleines Labor bei NVIDIA gegründet und sind kürzlich auf 30 starke Mitglieder gewachsen. Das Team leistet weit mehr, als man erwarten würde. Unser Forschungsschwerpunkt umfasst Fundamentalmuster, Weltmodelle, verkörpertes Denken, Simulation, Ganzkörperkontrolle und viele Varianten von RL - im Grunde den gesamten Stack des Robotiklernens.
In diesem Jahr haben wir gestartet:
- GR00T VLA (Vision-Language-Action) Fundamentalmuster: Open-Source N1 im März, N1.5 im Juni und N1.6 in diesem Monat;
- GR00T Dreams: Video-Weltmodell zur Skalierung synthetischer Daten;
- SONIC: humanoides Ganzkörperkontroll-Fundamentalmuster;
- RL-Nachtraining für VLAs und RL-Rezepte für sim2real.
Diese wären ohne die zahlreichen kooperierenden Teams bei NVIDIA, starke Unterstützung der Führung und Co-Autoren aus Universitätslaboren nicht möglich gewesen. Vielen Dank an alle, die an die Mission glauben.
Thread zur Galerie der Meilensteine:

164
Social Capital investierte im April 2017 10 Millionen Dollar in die Seed-Runde von Groq, als das Unternehmen nach der Finanzierung etwa 30 Millionen Dollar wert war. Dieser einzelne Scheck kaufte etwa 33 % des Unternehmens. Dann verdoppelten sie mit 52,3 Millionen Dollar in einer wandelbaren Anleihe im Jahr 2018.
Insgesamt investiert: 62,3 Millionen Dollar.
Hier wird es interessant. Groq sammelte 2021 300 Millionen Dollar bei einer Bewertung von 1,1 Milliarden Dollar, dann 640 Millionen Dollar bei 2,8 Milliarden Dollar im Jahr 2024 und schließlich 750 Millionen Dollar bei 6,9 Milliarden Dollar im September 2025. Jede Runde verwässerte die frühen Investoren. Aber Social Capital hatte Sitze im Vorstand und behielt wahrscheinlich einige pro-rata durch die Wandelanleihe.
Konservative Rechnung: Sie besitzen heute irgendwo zwischen 15-20 % von Groq. Bei 20 Milliarden Dollar sind das 3 bis 4 Milliarden Dollar an Wert.
62 Millionen Dollar rein. 3-4 Milliarden Dollar raus. Das ergibt eine Rendite von 50-65x in 8 Jahren.
Zum Kontext: Diese einzelne Investition ist mehr wert als die gesamte Fondgröße von Social Capital im Jahr 2015 (1,1 Milliarden Dollar). Eine Wette. Acht Jahre. 50x.
Der Zeitpunkt ist der verrückteste Teil. Chamath investierte 2017 in maßgeschneiderte KI-Chips, Jahre bevor ChatGPT das Inferenz-Computing populär machte. Er saß bis 2021 im Vorstand und trat dann zurück, als das Unternehmen in seine Wachstumsphase eintrat.
Jetzt zahlt Nvidia 20 Milliarden Dollar in bar, weil sie Groqs LPU-Architektur für Inferenz in großem Maßstab benötigen. Jensen schreibt Chamath im Grunde einen Scheck dafür, dass er frühzeitig auf den Engpass bei der Inferenz gesetzt hat.
Sag, was du willst über seine SPACs. Diese hier macht viel von den Clover Health-Verlusten wett.

Boring_BusinessVor 20 Stunden
Chamath, nachdem er 4 Milliarden Dollar aus einer Seed-Investition in Groq (gerade den 20 Milliarden Dollar Verkauf an NVIDIA angekündigt) gemacht hat
Eines der besten Venture-Ergebnisse aller Zeiten

297
Top
Ranking
Favoriten
