Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: $54K/maand 🎙️ https://t.co/fmB6Zf5n9X: $32K/maand 💼 https://t.co/hNxFPvj3v1: $31K/mo 🤝 https://t.co/SqC3jTyhav: $28K/mo
Iedereen heeft dit verkeerd.
De tweet toont rookpluimen, maar Intersect Power is een schoon energiebedrijf met 2,2 GW aan zonne-energie en 2,4 GWh aan batterijopslag die al operationeel zijn. Het aardgas is een back-up voor wanneer wind en zon niet de andere 30% kunnen dekken.
Het echte verhaal is wat Google daadwerkelijk koopt: snelheid.
Amerikaanse datacenters verbruikten vorig jaar 183 terawattuur. Dat aantal verdubbelt tegen 2030. Elke hyperscaler heeft meer vraag dan capaciteit. Andy Jassy gaf het toe tijdens de winstcall van Amazon. Het elektriciteitsnet kan niet bijbenen.
Dus Google heeft hun weg om het net helemaal heen gekocht.
Het model van Intersect plaatst energieopwekking direct bij datacenters. Bouw de zonneboerderij, de batterijarray en het datacenter op dezelfde locatie. Geen wachten op aansluiting bij de nutsvoorzieningen. Geen transmissieknelpunten. Geen kosten doorberekenen aan klanten die zich niet hebben aangemeld voor de AI-boom.
Tegen 2028 verwacht Intersect 10,8 gigawatt online of in ontwikkeling. Dat is meer dan 20 keer de Hooverdam.
Amazon geeft dit jaar $100 miljard uit aan AI-infrastructuur. Microsoft geeft $80 miljard uit. Google geeft $75 miljard uit. Dat is $255 miljard van drie bedrijven in één jaar, en ze strijden allemaal om dezelfde beperkte input: elektriciteit.
Google heeft net gegarandeerde toegang gekocht tot die beperking terwijl iedereen andere onderhandelt met nutsbedrijven.
De $4,75 miljard is niet het verhaal. Het is wat ze niet hoefden te kopen: tijd.

Pubity25 dec, 00:43
Google heeft zojuist $4,75 miljard uitgegeven om een volledig energiebedrijf te verwerven om hun AI-datacenters van energie te voorzien.


392
Iedereen is gefocust op wie de meest opvallende humanoïde demo levert. Jim Fan heeft je net verteld over de werkelijke race: wie genoeg synthetische fysica-gegevens kan genereren om een kloof van 100.000 jaar te dichten.
Dat getal is geen hyperbool. Ken Goldberg van Berkeley heeft berekend dat de tekstgegevens die gebruikt worden om LLM's te trainen, 100.000 jaar zouden kosten voor een mens om te lezen. Robots hebben bijna geen toegang tot dat equivalent voor fysieke manipulatie. Elke greep, elke struikelpartij, elke gewichtverschuiving moet vanaf nul worden geleerd of gesimuleerd.
Dit is waarom het lab van Fan drie modelversies in negen maanden uitbrengt (N1 in maart, N1.5 in juni, N1.6 in december) terwijl de meeste robotica bedrijven nog steeds echte werelddemo's verzamelen. NVIDIA concurreert niet alleen op hardware. Ze concurreren op hun vermogen om onbeperkte synthetische trainingsgegevens te genereren via Omniverse.
De GR00T-stack onthult de strategie: GR00T Dreams genereert synthetische videogegevens. GR00T-Gen creëert simulatieomgevingen. GR00T-Mimic genereert trajecten. Elk onderdeel bestaat om de fysica-gegevens te fabriceren die niet op het internet bestaan.
De framing van Fan's "Physical Turing Test" is precies. We zullen systemen bouwen die kunnen redeneren over eiwitten en stellingen kunnen bewijzen voordat we systemen bouwen die betrouwbaar de was kunnen vouwen. Physical Intelligence heeft dit vorige week aangetoond toen ze de "Robot Olympics" uitdagingstaken van Benjie Holson aanpakten. Hun model behaalde gouden medailles in 3 van de 5 categorieën. Maar let op wat ze niet konden oplossen: taken die gereedschapgebruik met specifieke fysieke eigenschappen vereisen. De grens is niet redeneren. Het is contactdynamica.
OpenAI en Anthropic schalen door het internet te scrapen. Fysieke AI heeft geen internet om te scrapen. Het team dat wint, is degene die uitvindt hoe je 100 miljoen uur aan fysica-ervaring binnen simulatie kunt fabriceren en het naar de echte wereld kunt overbrengen.
NVIDIA, met zijn grafische DNA, simulatie-infrastructuur en een team van 30 personen dat systematisch basismodellen open-source maakt, zou beter gepositioneerd kunnen zijn dan wie dan ook om precies dat te doen.

Jim Fan25 dec, 01:26
Ik ben op een unieke missie om de Fysieke Turing Test voor robotica op te lossen. Het is de volgende, of misschien WEL de laatste grote uitdaging van AI. Superintelligentie in tekststrings zal een Nobelprijs winnen voordat we chimpansees-intelligentie in behendigheid en vindingrijkheid hebben. Moravec's paradox is een vloek die gebroken moet worden, een muur die gesloopt moet worden. Niets kan tussen de mensheid en exponentiële fysieke productiviteit op deze planeet staan, en misschien op een dag op planeten daarbuiten.
We hebben een klein lab opgericht bij NVIDIA en zijn onlangs gegroeid naar 30 sterke leden. Het team presteert veel beter dan verwacht. Onze onderzoeksfocus omvat fundamentmodellen, wereldmodellen, belichaamde redenering, simulatie, volledige lichaamscontrole en vele varianten van RL - eigenlijk de volledige stack van robotleren.
Dit jaar hebben we gelanceerd:
- GR00T VLA (visie-taal-actie) fundamentmodellen: open-source N1 in maart, N1.5 in juni, en N1.6 deze maand;
- GR00T Dreams: videowereldmodel voor het schalen van synthetische data;
- SONIC: humanoïde volledige lichaamscontrole fundamentmodel;
- RL post-training voor VLA's en RL-recepten voor sim2real.
Deze zouden niet mogelijk zijn geweest zonder de talrijke samenwerkende teams bij NVIDIA, sterke leiderschapssteun en co-auteurs van universiteitslabs. Bedankt allemaal voor het geloven in de missie.
Draad over de galerij van mijlpalen:

176
Social Capital heeft $10M geïnvesteerd in de seedronde van Groq in april 2017, toen het bedrijf ongeveer $30M waard was na de investering. Die enkele cheque kocht ongeveer 33% van het bedrijf. Vervolgens verdubbelden ze hun inzet met $52,3M in een converteerbare lening in 2018.
Totaal geïnvesteerd: $62,3M.
Hier wordt het interessant. Groq haalde $300M op bij een waardering van $1,1B in 2021, daarna $640M bij $2,8B in 2024, en vervolgens $750M bij $6,9B in september 2025. Elke ronde verwaterde de vroege investeerders. Maar Social Capital had bestuurszetels en heeft waarschijnlijk een deel van de pro-rata behouden via de converteerbare lening.
Conservatieve berekening: Ze bezitten ergens tussen de 15-20% van Groq vandaag. Bij $20B is dat $3B tot $4B aan waarde.
$62M erin. $3-4B eruit. Dat is een rendement van 50-65x in 8 jaar.
Ter context, deze enkele investering is meer waard dan de totale fondsomvang van Social Capital in 2015 ($1,1B). Eén weddenschap. Acht jaar. 50x.
De timing is het wildste deel. Chamath investeerde in aangepaste AI-chips in 2017, jaren voordat ChatGPT inferentiecomputing populair maakte. Hij zat in de raad van bestuur tot 2021, en stapte toen terug net toen het bedrijf zijn groeifase inging.
Nu betaalt Nvidia $20B in contanten omdat ze Groq’s LPU-architectuur nodig hebben voor inferentie op grote schaal. Jensen schrijft in wezen Chamath een cheque voor het vroeg zijn bij de inferentieknoop.
Zeg wat je wilt over zijn SPAC's. Deze compenseert veel van de Clover Health verliezen.

Boring_Business20 uur geleden
Chamath nadat hij $4B heeft verdiend met een seed-investering in Groq (net aangekondigde $20B verkoop aan NVIDIA)
Een van de beste venture-uitkomsten aller tijden

326
Boven
Positie
Favorieten
