Alle fokuserer på hvem som leverer den mest flashy humanoide demoen. Jim Fan fortalte deg nettopp den faktiske rasen: hvem som kan generere nok syntetiske fysikkdata til å tette et gap på 100 000 år. Det tallet er ikke overdrivelse. Ken Goldberg ved Berkeley beregnet at tekstdataene brukt til å trene LLM-er ville ta 100 000 år for et menneske å lese. Roboter har nesten ikke tilgang til noe av det tilsvarende for fysisk manipulasjon. Hvert grep, hver snubling, hver vektforskyvning må læres fra bunnen av eller simuleres. Dette er grunnen til at Fans laboratorium sender ut tre modellversjoner på ni måneder (N1 i mars, N1.5 i juni, N1.6 i desember), mens de fleste robotikkselskaper fortsatt samler inn virkelige demoer. NVIDIA konkurrerer ikke kun på maskinvaren. De konkurrerer om evnen til å generere ubegrenset syntetisk treningsdata gjennom Omniverse. GR00T-stakken avslører strategien: GR00T Dreams genererer syntetiske videodata. GR00T-Gen lager simuleringsmiljøer. GR00T-Mimic genererer baner. Hver komponent eksisterer for å produsere fysikkdata som ikke finnes på internett. Fans «Physical Turing Test»-innramming er presis. Vi bygger systemer som kan resonnere om proteiner og bevise teoremer før vi bygger systemer som pålitelig kan brette klær. Physical Intelligence demonstrerte dette forrige uke da de tok fatt på Benjie Holsons utfordringsoppgaver i «Robot Olympics». Modellen deres vant gullmedaljer i 3 av 5 kategorier. Men legg merke til hva de ikke klarte å løse: oppgaver som krever bruk av verktøy med spesifikke fysiske egenskaper. Grensen er ikke resonnement. Det er kontaktdynamikk. OpenAI og Anthropic skalerer ved å skrape internett. Fysisk AI har ikke noe internett å skrape. Laget som vinner er den som finner ut hvordan man produserer 100 millioner timer med fysikkerfaring i simulering og overfører det til den virkelige verden. NVIDIA med sitt grafikk-DNA, simuleringsinfrastruktur og 30-personers team som systematisk åpner grunnlag, kan være bedre posisjonert enn noen andre til å gjøre nettopp det.