Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: 54 000 dollar/månad 🎙️ https://t.co/fmB6Zf5n9X: 32 000 dollar i månaden 💼 https://t.co/hNxFPvj3v1: 31 000 dollar i månaden 🤝 https://t.co/SqC3jTyhav: 28 000 dollar i månaden
Alla har fel på det här.
Tweeten visar skorstenar, men Intersect Power är ett rent energiföretag med redan 2,2 GW solenergi och 2,4 GWh batterilagring i drift. Naturgasen är reserv när vind och sol inte kan täcka de andra 30%.
Den verkliga historien är vad Google faktiskt köper: hastighet.
Amerikanska datacenter förbrukade 183 terawattimmar förra året. Det antalet fördubblas till 2030. Varje hyperskalare har mer efterfrågan än kapacitet. Andy Jassy erkände det på Amazons resultatuppringning. Nätet kan inte hänga med.
Så Google köpte sig runt hela nätet.
Intersects modell samlokaliserar elproduktion direkt med datacenter. Bygg solcellsanläggningen, batterianläggningen och datacentret på samma plats. Ingen väntan på anslutning till elnätet. Inga flaskhalsar i transmissionen. Inga avgifter för skattebetalare som inte anmälde sig till AI-boomen.
År 2028 förväntar sig Intersect 10,8 gigawatt online eller under utveckling. Det är mer än 20 gånger Hooverdammen.
Amazon spenderar 100 miljarder dollar på AI-infrastruktur i år. Microsoft spenderar 80 miljarder dollar. Google spenderar 75 miljarder dollar. Det är 255 miljarder dollar från tre företag på ett år, och de slåss alla om samma begränsade insats: elektricitet.
Google har precis köpt garanterad tillgång till den begränsningen medan alla andra förhandlar med elbolagen.
De 4,75 miljarder är inte historien. Det är vad de inte behövde köpa: tid.

Pubity25 dec. 00:43
Google har precis spenderat 4,75 miljarder dollar på att förvärva ett helt energibolag för att driva sina AI-datacenter.


390
Alla fokuserar på vem som levererar den mest flashiga humanoida demon. Jim berättade just för dig den faktiska rasen: vem kan generera tillräckligt med syntetisk fysikdata för att minska ett 100 000-årigt gap.
Det numret är ingen överdrift. Ken Goldberg vid Berkeley beräknade att textdata som används för att träna LLM skulle ta 100 000 år för en människa att läsa. Robotar har nästan ingen tillgång till den motsvarande fysiska manipulationen. Varje grepp, varje snubbel, varje viktförskjutning måste läras från grunden eller simuleras.
Det är därför Fans labb levererar tre modellversioner på nio månader (N1 i mars, N1.5 i juni, N1.6 i december) medan de flesta robotföretag fortfarande samlar in verkliga demos. NVIDIA konkurrerar inte enbart på hårdvaran. De tävlar om sin förmåga att generera obegränsad syntetisk träningsdata via Omniverse.
GR00T-stacken avslöjar strategin: GR00T Dreams genererar syntetisk videodata. GR00T-Gen skapar simuleringsmiljöer. GR00T-Mimic genererar banor. Varje komponent finns för att producera fysikdata som inte finns på internet.
Fans "Physical Turing Test"-ramverk är precis. Vi bygger system som kan resonera om proteiner och bevisa satser innan vi bygger system som pålitligt kan vika tvätt. Physical Intelligence visade detta förra veckan när de tog sig an Benjie Holsons utmaningsuppgifter "Robot Olympics". Deras modell tog guldmedaljer i 3 av 5 kategorier. Men lägg märke till vad de inte kunde lösa: uppgifter som kräver verktygsanvändning med specifika fysiska egenskaper. Gränsen är inte resonerande. Det är kontaktdynamik.
OpenAI och Anthropic skalar genom att skrapa internet. Fysisk AI har inget internet att skrapa i. Laget som vinner är den som lyckas tillverka 100 miljoner timmar fysikupplevelse i simulering och överföra den till verkligheten.
NVIDIA med sitt grafik-DNA, simuleringsinfrastruktur och sitt 30-personers team som systematiskt öppnar källkod för grundmodeller, kan vara bättre positionerat än någon annan för att göra just det.

Jim Fan25 dec. 01:26
Jag har ett enda uppdrag att lösa det fysiska Turingtestet för robotik. Det är nästa, eller kanske DEN sista stora utmaningen för AI. Superintelligens i textsträngar kommer att vinna ett Nobelpris innan vi har schimpansintelligens i smidighet och fingerfärdighet. Moravecs paradox är en förbannelse att bryta, en mur som ska rivas. Inget kan stå mellan mänskligheten och exponentiell fysisk produktivitet på denna planet, och kanske en dag på planeter bortom.
Vi startade ett litet laboratorium på NVIDIA och växte till 30 personer väldigt nyligen. Laget slår långt över sin viktklass. Vårt forskningsområde omfattar grundmodeller, världsmodeller, kroppslig resonemang, simulering, helkroppskontroll och många olika former av RL – i princip hela stapeln av robotinlärning.
I år lanserade vi:
- GR00T VLA (vision-language-action) grundmodeller: öppen källkod N1 i mar, N1.5 i juni och N1.6 denna månad;
- GR00T Dreams: videovärldsmodell för att skala syntetisk data;
- SONIC: humanoid helkroppskontrollgrundmodell;
- RL efter träning för VLA och RL-recept för sim2real.
Dessa hade inte varit möjliga utan de många samarbetsteamen på NVIDIA, starkt ledarskapsstöd och medförfattare från universitetslaboratorier. Tack alla för att ni tror på uppdraget.
Tråd om milstolpgalleriet:

174
Social Capital satte 10 miljoner dollar i Groqs seed-runda i april 2017 när företaget var värt cirka 30 miljoner dollar efter pengarna. Den där enda checken köpte ungefär 33 % av företaget. Sedan satsade de ännu mer med 52,3 miljoner dollar i en konvertibel skuldebrev från 2018.
Totalt utplacerad: 62,3 miljoner dollar.
Här blir det intressant. Groq samlade in 300 miljoner dollar till 1,1 miljarder dollar 2021, sedan 640 miljoner dollar till 2,8 miljarder dollar 2024, och sedan 750 miljoner dollar till 6,9 miljarder dollar i september 2025. Varje omgång spädde ut de tidiga investerarna. Men Social Capital hade styrelseplatser och behöll troligen viss proportionell andel genom den konvertibla bilen.
Konservativ matematik: De äger idag mellan 15–20 % av Groq. Vid 20 miljarder dollar är det 3 till 4 miljarder i värde.
62 miljoner dollar in. 3-4 miljarder ut. Det är en avkastning på 50-65 gånger på 8 år.
För att ge lite sammanhang är denna enda investering värd mer än Social Capitals totala fondstorlek år 2015 (1,1 miljarder dollar). Ett vad. Åtta år. 50x.
Tidpunkten är den vildaste delen. Chamath investerade i specialanpassade AI-chip 2017, flera år innan ChatGPT gjorde inferensberäkning till en grej. Han satt i styrelsen fram till 2021, men drog sig sedan tillbaka precis när företaget gick in i sin tillväxtfas.
Nu betalar Nvidia 20 miljarder dollar kontant eftersom de behöver Groqs LPU-arkitektur för att kunna dra slutsatser i stor skala. Jensen skriver i princip en check till Chamath för att han var tidig med inferensflaskhalsen.
Säg vad du vill om hans SPACs. Den här kompenserar för många Clover Health-påsar.

Boring_Business20 timmar sedan
Chamath efter att ha tjänat 4 miljarder dollar på en seed-investering i Groq (har precis meddelat försäljning på 20 miljarder till NVIDIA)
Ett av de bästa affärsresultaten någonsin

323
Topp
Rankning
Favoriter
