Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: $54K/m 🎙️ https://t.co/fmB6Zf5n9X: $32K/m 💼 https://t.co/hNxFPvj3v1: $31K/m 🤝 https://t.co/SqC3jTyhav: $28K/m
Wszyscy się w tym mylą.
Tweet pokazuje kominy, ale Intersect Power to firma zajmująca się energią odnawialną, która już działa z mocą 2,2 GW energii słonecznej i 2,4 GWh magazynowania energii. Gaz ziemny jest wsparciem na wypadek, gdy wiatr i słońce nie pokryją pozostałych 30%.
Prawdziwa historia dotyczy tego, co Google tak naprawdę kupuje: szybkości.
Amerykańskie centra danych zużyły w zeszłym roku 183 terawatogodzin. Ta liczba podwaja się do 2030 roku. Każdy hyperscaler ma większe zapotrzebowanie niż pojemność. Andy Jassy przyznał to podczas rozmowy o wynikach Amazonu. Sieć nie nadąża.
Więc Google całkowicie ominęło sieć.
Model Intersect współlokuje wytwarzanie energii bezpośrednio z centrami danych. Buduj farmę słoneczną, zestaw baterii i centrum danych na tym samym terenie. Żadnego czekania na połączenie z siecią. Żadnych wąskich gardeł w przesyle. Żadnych kosztów przerzucanych na odbiorców, którzy nie zapisali się na boom AI.
Do 2028 roku Intersect spodziewa się 10,8 gigawata online lub w fazie rozwoju. To więcej niż 20 razy Tama Hoovera.
Amazon wydaje w tym roku 100 miliardów dolarów na infrastrukturę AI. Microsoft wydaje 80 miliardów dolarów. Google wydaje 75 miliardów dolarów. To 255 miliardów dolarów od trzech firm w jednym roku, a wszystkie walczą o ten sam ograniczony zasób: elektryczność.
Google właśnie kupiło gwarantowany dostęp do tego ograniczenia, podczas gdy wszyscy inni negocjują z dostawcami energii.
4,75 miliarda dolarów to nie jest historia. To, czego nie musieli kupować: czas.

Pubity25 gru, 00:43
Google właśnie wydał 4,75 miliarda dolarów na przejęcie całej firmy energetycznej, aby zasilić swoje centra danych AI.


379
Wszyscy skupiają się na tym, kto zaprezentuje najbardziej efektowny humanoidalny demo. Jim Fan właśnie powiedział ci o rzeczywistej rywalizacji: kto potrafi wygenerować wystarczającą ilość syntetycznych danych fizycznych, aby zamknąć 100 000-letnią lukę.
Ta liczba nie jest przesadą. Ken Goldberg z Berkeley obliczył, że dane tekstowe używane do trenowania LLM-ów zajęłyby człowiekowi 100 000 lat do przeczytania. Roboty mają dostęp do prawie żadnych z tych równoważnych danych dotyczących manipulacji fizycznej. Każde chwytanie, każdy potknięcie, każda zmiana wagi musi być nauczona od podstaw lub symulowana.
Dlatego laboratorium Fana wypuszcza trzy wersje modelu w ciągu dziewięciu miesięcy (N1 w marcu, N1.5 w czerwcu, N1.6 w grudniu), podczas gdy większość firm zajmujących się robotyką wciąż zbiera rzeczywiste demonstracje. NVIDIA nie konkuruje tylko na poziomie sprzętu. Konkurują na swojej zdolności do generowania nieograniczonych syntetycznych danych treningowych za pośrednictwem Omniverse.
Stos GR00T ujawnia strategię: GR00T Dreams generuje syntetyczne dane wideo. GR00T-Gen tworzy środowiska symulacyjne. GR00T-Mimic generuje trajektorie. Każdy komponent istnieje, aby wytwarzać dane fizyczne, które nie istnieją w internecie.
Ramka „Fizycznego Testu Turinga” Fana jest precyzyjna. Zbudujemy systemy, które potrafią rozumować o białkach i udowadniać twierdzenia, zanim zbudujemy systemy, które potrafią niezawodnie składać pranie. Fizyczna Inteligencja właśnie to udowodniła w zeszłym tygodniu, gdy zmierzyli się z zadaniami wyzwania „Robotyczne Igrzyska Olimpijskie” Benjie Holsona. Ich model zdobył złote medale w 3 z 5 kategorii. Ale zauważ, czego nie mogli rozwiązać: zadania wymagające użycia narzędzi o specyficznych właściwościach fizycznych. Granicą nie jest rozumowanie. To dynamika kontaktu.
OpenAI i Anthropic skalują, przeszukując internet. Fizyczna AI nie ma internetu do przeszukiwania. Zespół, który wygra, to ten, który wymyśli, jak wyprodukować 100 milionów godzin doświadczenia fizycznego w symulacji i przenieść to do rzeczywistego świata.
NVIDIA ze swoim DNA graficznym, infrastrukturą symulacyjną i 30-osobowym zespołem systematycznie udostępniającym modele bazowe może być lepiej przygotowana niż ktokolwiek inny, aby dokładnie to zrobić.

Jim Fan25 gru, 01:26
Jestem na jedynej misji, aby rozwiązać Fizyczny Test Turinga dla robotyki. To następne, a może OSTATNIE wielkie wyzwanie AI. Superinteligencja w ciągach tekstowych zdobędzie Nagrodę Nobla, zanim osiągniemy inteligencję szympansa w zwinności i zręczności. Paradoks Moraveca to przekleństwo, które należy przełamać, mur do zburzenia. Nic nie może stanąć między ludzkością a wykładniczą wydajnością fizyczną na tej planecie, a może pewnego dnia na planetach poza nią.
Rozpoczęliśmy małe laboratorium w NVIDIA i niedawno urosło do 30 osób. Nasz zespół działa znacznie powyżej swoich możliwości. Nasza działalność badawcza obejmuje modele podstawowe, modele świata, uosobione rozumowanie, symulację, kontrolę całego ciała i wiele odmian RL - zasadniczo pełny stos uczenia się robotów.
W tym roku uruchomiliśmy:
- modele podstawowe GR00T VLA (wizja-język-działanie): open-sourced N1 w marcu, N1.5 w czerwcu i N1.6 w tym miesiącu;
- GR00T Dreams: model świata wideo do skalowania syntetycznych danych;
- SONIC: model podstawowy do kontroli całego ciała humanoida;
- RL po treningu dla VLA i przepisy RL dla sim2real.
To nie byłoby możliwe bez licznych współpracujących zespołów w NVIDIA, silnego wsparcia kierownictwa i współautorów z laboratoriów uniwersyteckich. Dziękuję wszystkim za wiarę w tę misję.
Wątek na temat galerii kamieni milowych:

163
Social Capital zainwestował 10 milionów dolarów w rundę seed Groq w kwietniu 2017 roku, kiedy firma była warta około 30 milionów dolarów po inwestycji. Ten pojedynczy czek kupił około 33% firmy. Następnie zainwestowali ponownie 52,3 miliona dolarów w konwertowalny list w 2018 roku.
Całkowita kwota zainwestowana: 62,3 miliona dolarów.
A teraz robi się interesująco. Groq zebrał 300 milionów dolarów przy wycenie 1,1 miliarda dolarów w 2021 roku, następnie 640 milionów dolarów przy wycenie 2,8 miliarda dolarów w 2024 roku, a potem 750 milionów dolarów przy wycenie 6,9 miliarda dolarów we wrześniu 2025 roku. Każda runda rozwodniła wczesnych inwestorów. Ale Social Capital miał miejsca w zarządzie i prawdopodobnie utrzymał pewne pro-rata dzięki konwertowalnemu.
Konserwatywna matematyka: Dzisiaj posiadają gdzieś między 15-20% Groq. Przy wycenie 20 miliardów dolarów to 3 miliardy do 4 miliardów dolarów wartości.
62 miliony dolarów w. 3-4 miliardy dolarów na zewnątrz. To zwrot 50-65x w ciągu 8 lat.
Dla kontekstu, ta pojedyncza inwestycja jest warta więcej niż cały fundusz Social Capital w 2015 roku (1,1 miliarda dolarów). Jedno zakład. Osiem lat. 50x.
Czas jest najdzikszą częścią. Chamath zainwestował w niestandardowe chipy AI w 2017 roku, lata przed tym, jak ChatGPT uczynił obliczenia inferencyjne popularnymi. Siedział w zarządzie do 2021 roku, a następnie wycofał się w momencie, gdy firma wchodziła w fazę wzrostu.
Teraz Nvidia płaci 20 miliardów dolarów w gotówce, ponieważ potrzebują architektury LPU Groq do obliczeń inferencyjnych na dużą skalę. Jensen zasadniczo pisze Chamathowi czek za to, że był wcześnie na wąskim gardle inferencyjnym.
Mów, co chcesz o jego SPACach. Ta jedna rekompensuje wiele strat w Clover Health.

Boring_Business20 godz. temu
Chamath po zarobieniu 4 miliardów dolarów na inwestycji w Groq (właśnie ogłoszono sprzedaż za 20 miliardów dolarów do NVIDIA)
Jedno z najlepszych wyników inwestycyjnych w historii

296
Najlepsze
Ranking
Ulubione
