Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: $54K/🎙️ mese https://t.co/fmB6Zf5n9X: $32K/mese 💼 https://t.co/hNxFPvj3v1: $31K/mese 🤝 https://t.co/SqC3jTyhav: $28K/mese
Tutti stanno sbagliando.
Il tweet mostra camini, ma Intersect Power è un'azienda di energia pulita con 2,2 GW di solare e 2,4 GWh di stoccaggio di batterie già in funzione. Il gas naturale è un backup per quando vento e solare non possono coprire il restante 30%.
La vera storia è cosa sta realmente comprando Google: velocità.
I data center statunitensi hanno consumato 183 terawattora lo scorso anno. Quel numero raddoppia entro il 2030. Ogni hyperscaler ha più domanda che capacità. Andy Jassy lo ha ammesso nella call sugli utili di Amazon. La rete non riesce a tenere il passo.
Quindi Google ha comprato il modo di aggirare completamente la rete.
Il modello di Intersect colloca direttamente la generazione di energia con i data center. Costruisci il parco solare, l'array di batterie e il data center nello stesso sito. Nessuna attesa per l'interconnessione con l'utility. Nessun collo di bottiglia nella trasmissione. Nessun costo da trasferire ai clienti che non si sono iscritti al boom dell'AI.
Entro il 2028, Intersect prevede di avere 10,8 gigawatt online o in fase di sviluppo. Sono più di 20 volte la diga di Hoover.
Amazon sta spendendo 100 miliardi di dollari per l'infrastruttura AI quest'anno. Microsoft sta spendendo 80 miliardi. Google sta spendendo 75 miliardi. Sono 255 miliardi di dollari da tre aziende in un anno, e tutte stanno lottando per lo stesso input limitato: elettricità.
Google ha appena comprato accesso garantito a quel vincolo mentre tutti gli altri negoziano con le utility.
I 4,75 miliardi di dollari non sono la storia. È ciò che non hanno dovuto comprare: tempo.

Pubity25 dic, 00:43
Google ha appena speso 4,75 miliardi di dollari per acquisire un'intera azienda energetica per alimentare i propri data center AI.


381
Tutti sono concentrati su chi presenta la demo umanoide più appariscente. Jim Fan ti ha appena detto quale sia la vera corsa: chi può generare abbastanza dati fisici sintetici per colmare un divario di 100.000 anni.
Quel numero non è un'iperbole. Ken Goldberg a Berkeley ha calcolato che i dati testuali utilizzati per addestrare i LLM richiederebbero 100.000 anni a un essere umano per essere letti. I robot non hanno accesso a quasi nessuno di quell'equivalente per la manipolazione fisica. Ogni presa, ogni inciampo, ogni spostamento di peso deve essere appreso da zero o simulato.
Ecco perché il laboratorio di Fan presenta tre versioni del modello in nove mesi (N1 a marzo, N1.5 a giugno, N1.6 a dicembre) mentre la maggior parte delle aziende di robotica sta ancora raccogliendo dimostrazioni nel mondo reale. NVIDIA non sta competendo solo sull'hardware. Sta competendo sulla sua capacità di generare dati di addestramento sintetici illimitati attraverso Omniverse.
Il stack GR00T rivela la strategia: GR00T Dreams genera dati video sintetici. GR00T-Gen crea ambienti di simulazione. GR00T-Mimic genera traiettorie. Ogni componente esiste per produrre i dati fisici che non esistono su internet.
Il quadro del "Physical Turing Test" di Fan è preciso. Costruiremo sistemi che possono ragionare sui proteine e dimostrare teoremi prima di costruire sistemi che possono piegare il bucato in modo affidabile. Physical Intelligence ha appena dimostrato questo la settimana scorsa quando ha affrontato i compiti della "Robot Olympics" di Benjie Holson. Il loro modello ha ottenuto medaglie d'oro in 3 delle 5 categorie. Ma nota cosa non sono riusciti a risolvere: compiti che richiedono l'uso di strumenti con proprietà fisiche specifiche. La frontiera non è il ragionamento. È la dinamica del contatto.
OpenAI e Anthropic scalano estraendo dati da internet. L'AI fisica non ha internet da cui estrarre. Il team che vincerà è chiunque riesca a capire come produrre 100 milioni di ore di esperienza fisica all'interno della simulazione e trasferirla nel mondo reale.
NVIDIA, con il suo DNA grafico, infrastruttura di simulazione e un team di 30 persone che open-source sistematicamente modelli di base, potrebbe essere posizionata meglio di chiunque altro per fare esattamente questo.

Jim Fan25 dic, 01:26
Sono in una missione singolare per risolvere il Test di Turing Fisico per la robotica. È la prossima, o forse L'ULTIMA grande sfida dell'IA. La super-intelligenza nelle stringhe di testo vincerà un premio Nobel prima che abbiamo un'intelligenza da scimpanzé in agilità e destrezza. Il paradosso di Moravec è una maledizione da spezzare, un muro da abbattere. Nulla può ostacolare l'umanità e la produttività fisica esponenziale su questo pianeta, e forse un giorno su pianeti oltre.
Abbiamo avviato un piccolo laboratorio presso NVIDIA e siamo cresciuti fino a 30 persone molto recentemente. Il team lavora ben oltre le proprie possibilità. La nostra impronta di ricerca abbraccia modelli fondamentali, modelli del mondo, ragionamento incarnato, simulazione, controllo del corpo intero e molte varianti di RL - fondamentalmente l'intero stack dell'apprendimento robotico.
Quest'anno, abbiamo lanciato:
- modelli fondamentali GR00T VLA (visione-linguaggio-azione): open-sourced N1 a marzo, N1.5 a giugno e N1.6 questo mese;
- GR00T Dreams: modello del mondo video per scalare dati sintetici;
- SONIC: modello fondamentale di controllo del corpo intero umanoide;
- post-addestramento RL per VLAs e ricette RL per sim2real.
Questi non sarebbero stati possibili senza i numerosi team collaboratori di NVIDIA, un forte supporto della leadership e coautori provenienti da laboratori universitari. Grazie a tutti per aver creduto nella missione.
Thread sulla galleria dei traguardi:

165
Social Capital ha investito 10 milioni di dollari nel round di seed di Groq nell'aprile 2017, quando l'azienda valeva circa 30 milioni di dollari post-money. Quel singolo assegno ha acquistato circa il 33% dell'azienda. Poi hanno raddoppiato con 52,3 milioni di dollari in un nota convertibile del 2018.
Totale investito: 62,3 milioni di dollari.
Ecco dove diventa interessante. Groq ha raccolto 300 milioni di dollari a 1,1 miliardi di dollari nel 2021, poi 640 milioni di dollari a 2,8 miliardi di dollari nel 2024, poi 750 milioni di dollari a 6,9 miliardi di dollari a settembre 2025. Ogni round ha diluito i primi investitori. Ma Social Capital aveva posti nel consiglio e probabilmente ha mantenuto una certa quota pro-rata attraverso la convertibile.
Matematica conservativa: Oggi possiedono tra il 15% e il 20% di Groq. A 20 miliardi di dollari, ciò equivale a 3-4 miliardi di dollari di valore.
62 milioni di dollari investiti. 3-4 miliardi di dollari in uscita. Questo è un ritorno di 50-65x in 8 anni.
Per contesto, questo singolo investimento vale più dell'intera dimensione del fondo di Social Capital nel 2015 (1,1 miliardi di dollari). Una scommessa. Otto anni. 50x.
Il tempismo è la parte più folle. Chamath ha investito in chip AI personalizzati nel 2017, anni prima che ChatGPT rendesse il calcolo inferenziale una realtà. È rimasto nel consiglio fino al 2021, poi si è ritirato proprio mentre l'azienda stava entrando nella sua fase di crescita.
Ora Nvidia sta pagando 20 miliardi di dollari in contante perché ha bisogno dell'architettura LPU di Groq per l'inferenza su larga scala. Jensen sta essenzialmente scrivendo un assegno a Chamath per essere stato precoce nel colli di bottiglia dell'inferenza.
Dì quello che vuoi sui suoi SPAC. Questo compensa molte delle perdite di Clover Health.

Boring_Business20 ore fa
Chamath dopo aver guadagnato 4 miliardi di dollari da un investimento iniziale in Groq (appena annunciata la vendita da 20 miliardi di dollari a NVIDIA)
Uno dei migliori risultati di venture di tutti i tempi

298
Principali
Ranking
Preferiti
