Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: 54 000 dollar/måned 🎙️ https://t.co/fmB6Zf5n9X: 32 000 dollar i måneden 💼 https://t.co/hNxFPvj3v1: 31 000 dollar i måneden 🤝 https://t.co/SqC3jTyhav: 28 000 dollar i måneden
Alle tar feil.
Tweeten viser skorsteiner, men Intersect Power er et rent energiselskap med 2,2 GW solenergi og 2,4 GWh batterilagring allerede i drift. Naturgassen er reserve når vind og sol ikke kan dekke de resterende 30 %.
Den virkelige historien er hva Google faktisk kjøper: hastighet.
Amerikanske datasentre brukte 183 terawatt-timer i fjor. Det tallet dobles innen 2030. Hver hyperskaler har større etterspørsel enn kapasitet. Andy Jassy innrømmet det på Amazons resultatpresentasjon. Nettet klarer ikke å holde følge.
Så Google kjøpte seg rundt på nettet helt.
Intersects modell samlokaliserer kraftproduksjon direkte med datasentre. Bygg solcelleanlegget, batterianlegget og datasenteret på samme sted. Ingen venting på tilkobling til strømnettet. Ingen flaskehalser i overføringen. Ingen gebyrer for skattebetalere som ikke meldte seg på AI-boomen.
Innen 2028 forventer Intersect 10,8 gigawatt på nett eller under utvikling. Det er mer enn 20 ganger Hoover-demningen.
Amazon bruker 100 milliarder dollar på AI-infrastruktur i år. Microsoft bruker 80 milliarder dollar. Google bruker 75 milliarder dollar. Det er 255 milliarder dollar fra tre selskaper på ett år, og de kjemper alle om den samme begrensede innsatsen: elektrisitet.
Google har nettopp kjøpt garantert tilgang til den begrensningen mens alle andre forhandler med nettselskapene.
De 4,75 milliarder dollarene er ikke historien. Det er det de ikke trengte å kjøpe: tid.

Pubity25. des., 00:43
Google har nettopp brukt 4,75 milliarder dollar på å kjøpe et helt energiselskap for å drive sine AI-datasentre.


394
Alle fokuserer på hvem som leverer den mest flashy humanoide demoen. Jim Fan fortalte deg nettopp den faktiske rasen: hvem som kan generere nok syntetiske fysikkdata til å tette et gap på 100 000 år.
Det tallet er ikke overdrivelse. Ken Goldberg ved Berkeley beregnet at tekstdataene brukt til å trene LLM-er ville ta 100 000 år for et menneske å lese. Roboter har nesten ikke tilgang til noe av det tilsvarende for fysisk manipulasjon. Hvert grep, hver snubling, hver vektforskyvning må læres fra bunnen av eller simuleres.
Dette er grunnen til at Fans laboratorium sender ut tre modellversjoner på ni måneder (N1 i mars, N1.5 i juni, N1.6 i desember), mens de fleste robotikkselskaper fortsatt samler inn virkelige demoer. NVIDIA konkurrerer ikke kun på maskinvaren. De konkurrerer om evnen til å generere ubegrenset syntetisk treningsdata gjennom Omniverse.
GR00T-stakken avslører strategien: GR00T Dreams genererer syntetiske videodata. GR00T-Gen lager simuleringsmiljøer. GR00T-Mimic genererer baner. Hver komponent eksisterer for å produsere fysikkdata som ikke finnes på internett.
Fans «Physical Turing Test»-innramming er presis. Vi bygger systemer som kan resonnere om proteiner og bevise teoremer før vi bygger systemer som pålitelig kan brette klær. Physical Intelligence demonstrerte dette forrige uke da de tok fatt på Benjie Holsons utfordringsoppgaver i «Robot Olympics». Modellen deres vant gullmedaljer i 3 av 5 kategorier. Men legg merke til hva de ikke klarte å løse: oppgaver som krever bruk av verktøy med spesifikke fysiske egenskaper. Grensen er ikke resonnement. Det er kontaktdynamikk.
OpenAI og Anthropic skalerer ved å skrape internett. Fysisk AI har ikke noe internett å skrape. Laget som vinner er den som finner ut hvordan man produserer 100 millioner timer med fysikkerfaring i simulering og overfører det til den virkelige verden.
NVIDIA med sitt grafikk-DNA, simuleringsinfrastruktur og 30-personers team som systematisk åpner grunnlag, kan være bedre posisjonert enn noen andre til å gjøre nettopp det.

Jim Fan25. des., 01:26
Jeg er på et enkelt oppdrag for å løse Physical Turing-testen for robotikk. Det er den neste, eller kanskje DEN siste store utfordringen for AI. Superintelligens i tekststrenger vil vinne en Nobelpris før vi har sjimpanseintelligens i smidighet og fingerferdighet. Moravecs paradoks er en forbannelse som skal brytes, en mur som skal rives ned. Ingenting kan stå mellom menneskeheten og eksponentiell fysisk produktivitet på denne planeten, og kanskje en dag på planeter utenfor.
Vi startet et lite laboratorium hos NVIDIA og vokste nylig til 30 ansatte. Laget slår langt over sin egen vektklasse. Vårt forskningsspor spenner over grunnleggende modeller, verdensmodeller, kroppslig resonnement, simulering, helkroppskontroll og mange varianter av RL – i bunn og grunn hele spekteret av robotlæring.
I år lanserte vi:
- GR00T VLA (vision-language-action) grunnmodeller: åpen kildekode N1 i mars, N1.5 i juni, og N1.6 denne måneden;
- GR00T Dreams: videoverdensmodell for skalering av syntetiske data;
- SONIC: humanoid helkroppskontrollgrunnlagsmodell;
- RL etter trening for VLAs og RL-oppskrifter for sim2real.
Dette ville ikke vært mulig uten de mange samarbeidende teamene hos NVIDIA, sterk ledelsesstøtte og medforfattere fra universitetslaboratorier. Takk til alle som tror på oppdraget.
Tråd om galleriet av milepæler:

178
Social Capital investerte 10 millioner dollar i Groqs seed-runde i april 2017, da selskapet var verdt omtrent 30 millioner dollar etter penger. Den ene sjekken kjøpte omtrent 33 % av selskapet. Deretter doblet de innsatsen med 52,3 millioner dollar i et konvertibelt lån fra 2018.
Totalt utplassert: 62,3 millioner dollar.
Her blir det interessant. Groq hentet inn 300 millioner dollar til 1,1 milliarder i 2021, deretter 640 millioner til 2,8 milliarder i 2024, og deretter 750 millioner til 6,9 milliarder i september 2025. Hver runde tynnet ut tidlige investorer. Men Social Capital hadde styreplasser og opprettholdt sannsynligvis noe prorata gjennom konvertiblet.
Konservativ matematikk: De eier et sted mellom 15-20 % av Groq i dag. Med 20 milliarder dollar er det 3 til 4 milliarder dollar i verdi.
62 millioner dollar. 3-4 milliarder dollar ut. Det er en 50-65x avkastning på 8 år.
Til sammenligning er denne ene investeringen mer verdt enn Social Capitals samlede fondstørrelse i 2015 (1,1 milliarder dollar). Ett veddemål. Åtte år. 50 ganger.
Timingen er den villeste delen. Chamath investerte i tilpassede AI-brikker i 2017, flere år før ChatGPT gjorde slutningsberegning mulig. Han satt i styret til 2021, men trakk seg tilbake akkurat da selskapet gikk inn i vekstfasen.
Nå betaler Nvidia 20 milliarder dollar i kontanter fordi de trenger Groqs LPU-arkitektur for inferenser i stor skala. Jensen skriver i praksis Chamath en sjekk for å være tidlig ute med inferensflaskehalsen.
Si hva du vil om hans SPAC-er. Denne veier opp for mange Clover Health-poser.

Boring_Business20 timer siden
Chamath etter å ha tjent 4 milliarder dollar på en seed-investering i Groq (har nettopp annonsert salg på 20 milliarder dollar til NVIDIA)
Et av de beste prosjektresultatene noensinne

328
Topp
Rangering
Favoritter
