Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Alla fokuserar på vem som levererar den mest flashiga humanoida demon. Jim berättade just för dig den faktiska rasen: vem kan generera tillräckligt med syntetisk fysikdata för att minska ett 100 000-årigt gap.
Det numret är ingen överdrift. Ken Goldberg vid Berkeley beräknade att textdata som används för att träna LLM skulle ta 100 000 år för en människa att läsa. Robotar har nästan ingen tillgång till den motsvarande fysiska manipulationen. Varje grepp, varje snubbel, varje viktförskjutning måste läras från grunden eller simuleras.
Det är därför Fans labb levererar tre modellversioner på nio månader (N1 i mars, N1.5 i juni, N1.6 i december) medan de flesta robotföretag fortfarande samlar in verkliga demos. NVIDIA konkurrerar inte enbart på hårdvaran. De tävlar om sin förmåga att generera obegränsad syntetisk träningsdata via Omniverse.
GR00T-stacken avslöjar strategin: GR00T Dreams genererar syntetisk videodata. GR00T-Gen skapar simuleringsmiljöer. GR00T-Mimic genererar banor. Varje komponent finns för att producera fysikdata som inte finns på internet.
Fans "Physical Turing Test"-ramverk är precis. Vi bygger system som kan resonera om proteiner och bevisa satser innan vi bygger system som pålitligt kan vika tvätt. Physical Intelligence visade detta förra veckan när de tog sig an Benjie Holsons utmaningsuppgifter "Robot Olympics". Deras modell tog guldmedaljer i 3 av 5 kategorier. Men lägg märke till vad de inte kunde lösa: uppgifter som kräver verktygsanvändning med specifika fysiska egenskaper. Gränsen är inte resonerande. Det är kontaktdynamik.
OpenAI och Anthropic skalar genom att skrapa internet. Fysisk AI har inget internet att skrapa i. Laget som vinner är den som lyckas tillverka 100 miljoner timmar fysikupplevelse i simulering och överföra den till verkligheten.
NVIDIA med sitt grafik-DNA, simuleringsinfrastruktur och sitt 30-personers team som systematiskt öppnar källkod för grundmodeller, kan vara bättre positionerat än någon annan för att göra just det.
Topp
Rankning
Favoriter
