Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: $54K/🎙️ mês https://t.co/fmB6Zf5n9X: $32K/💼 mês https://t.co/hNxFPvj3v1: $31K/mês 🤝 https://t.co/SqC3jTyhav: $28K/mês
Todos estão a errar nisso.
O tweet mostra chaminés, mas a Intersect Power é uma empresa de energia limpa com 2,2 GW de solar e 2,4 GWh de armazenamento de bateria já em operação. O gás natural é uma reserva para quando o vento e o solar não conseguem cobrir os outros 30%.
A verdadeira história é o que o Google está realmente a comprar: velocidade.
Os centros de dados dos EUA consumiram 183 terawatts-hora no ano passado. Esse número dobra até 2030. Cada hyperscaler tem mais demanda do que capacidade. Andy Jassy admitiu isso na chamada de resultados da Amazon. A rede não consegue acompanhar.
Assim, o Google comprou uma forma de contornar completamente a rede.
O modelo da Intersect co-localiza a geração de energia diretamente com os centros de dados. Construa a fazenda solar, o conjunto de baterias e o centro de dados no mesmo local. Sem esperar pela interconexão com a utilidade. Sem gargalos de transmissão. Sem passar custos para os consumidores que não se inscreveram na explosão da AI.
Até 2028, a Intersect espera ter 10,8 gigawatts online ou em desenvolvimento. Isso é mais de 20 vezes a represa Hoover.
A Amazon está a gastar $100B em infraestrutura de AI este ano. A Microsoft está a gastar $80B. O Google está a gastar $75B. Isso totaliza $255B de três empresas em um ano, e todas estão a lutar pelo mesmo insumo restrito: eletricidade.
O Google acabou de comprar acesso garantido a essa restrição enquanto todos os outros negociam com as utilidades.
Os $4,75B não são a história. É o que eles não tiveram que comprar: tempo.

Pubity25/12, 00:43
A Google acabou de gastar 4,75 mil milhões de dólares para adquirir uma empresa de energia inteira para alimentar os seus centros de dados de IA.


398
Todos estão focados em quem apresenta a demonstração humanoide mais impressionante. Jim Fan acabou de lhe dizer qual é a verdadeira corrida: quem consegue gerar dados sintéticos de física suficientes para fechar uma lacuna de 100.000 anos.
Esse número não é hipérbole. Ken Goldberg, da Berkeley, calculou que os dados textuais usados para treinar LLMs levariam 100.000 anos para um humano ler. Os robôs têm acesso a quase nenhum equivalente para manipulação física. Cada apreensão, cada tropeço, cada mudança de peso precisa ser aprendida do zero ou simulada.
É por isso que o laboratório de Fan lança três versões de modelo em nove meses (N1 em março, N1.5 em junho, N1.6 em dezembro), enquanto a maioria das empresas de robótica ainda está coletando demonstrações do mundo real. A NVIDIA não está competindo apenas em hardware. Eles estão competindo pela sua capacidade de gerar dados de treinamento sintéticos ilimitados através do Omniverse.
A pilha GR00T revela a estratégia: GR00T Dreams gera dados de vídeo sintético. GR00T-Gen cria ambientes de simulação. GR00T-Mimic gera trajetórias. Cada componente existe para fabricar os dados de física que não existem na internet.
A formulação do "Teste de Turing Físico" de Fan é precisa. Vamos construir sistemas que possam raciocinar sobre proteínas e provar teoremas antes de construirmos sistemas que possam dobrar roupas de forma confiável. A Physical Intelligence demonstrou isso na semana passada quando enfrentou as tarefas do desafio "Olimpíadas Robóticas" de Benjie Holson. O modelo deles conquistou medalhas de ouro em 3 das 5 categorias. Mas note o que eles não conseguiram resolver: tarefas que exigem o uso de ferramentas com propriedades físicas específicas. A fronteira não é o raciocínio. É a dinâmica de contato.
A OpenAI e a Anthropic escalam raspando a internet. A IA Física não tem internet para raspar. A equipe que vencer é quem descobrir como fabricar 100 milhões de horas de experiência em física dentro da simulação e transferi-las para o mundo real.
A NVIDIA, com seu DNA gráfico, infraestrutura de simulação e uma equipe de 30 pessoas sistematicamente disponibilizando modelos fundamentais como código aberto, pode estar melhor posicionada do que ninguém para fazer exatamente isso.

Jim Fan25/12, 01:26
Estou numa missão singular para resolver o Teste de Turing Físico para robótica. É o próximo, ou talvez O último grande desafio da IA. A superinteligência em cadeias de texto ganhará um prêmio Nobel antes de termos inteligência de chimpanzé em agilidade e destreza. O paradoxo de Moravec é uma maldição a ser quebrada, uma parede a ser derrubada. Nada pode ficar entre a humanidade e a produtividade física exponencial neste planeta, e talvez algum dia em planetas além.
Começámos um pequeno laboratório na NVIDIA e crescemos para 30 pessoas muito recentemente. A equipe atua muito além do seu peso. Nossa pegada de pesquisa abrange modelos fundamentais, modelos de mundo, raciocínio incorporado, simulação, controle de corpo inteiro e muitas variantes de RL - basicamente toda a pilha de aprendizado de robôs.
Este ano, lançámos:
- GR00T VLA (modelos fundamentais de visão-linguagem-ação): código aberto N1 em março, N1.5 em junho e N1.6 este mês;
- GR00T Dreams: modelo de mundo em vídeo para escalonamento de dados sintéticos;
- SONIC: modelo fundamental de controle de corpo inteiro humanoide;
- Pós-treinamento de RL para VLAs e receitas de RL para sim2real.
Isto não teria sido possível sem as numerosas equipes colaboradoras na NVIDIA, forte apoio da liderança e coautores de laboratórios universitários. Obrigado a todos por acreditarem na missão.
Thread sobre a galeria de marcos:

182
O Social Capital investiu $10M na ronda de seed da Groq em abril de 2017, quando a empresa valia aproximadamente $30M pós-investimento. Esse único cheque comprou cerca de 33% da empresa. Depois, eles dobraram a aposta com $52.3M em um nota conversível de 2018.
Total investido: $62.3M.
Aqui é onde as coisas ficam interessantes. A Groq levantou $300M a uma avaliação de $1.1B em 2021, depois $640M a $2.8B em 2024, e então $750M a $6.9B em setembro de 2025. Cada ronda diluiu os investidores iniciais. Mas o Social Capital tinha assentos no conselho e provavelmente manteve alguma participação proporcional através da conversível.
Cálculo conservador: Eles possuem entre 15-20% da Groq hoje. A $20B, isso representa entre $3B e $4B em valor.
$62M investidos. $3-4B retornados. Isso é um retorno de 50-65x em 8 anos.
Para contexto, este único investimento vale mais do que o tamanho total do fundo do Social Capital em 2015 ($1.1B). Uma aposta. Oito anos. 50x.
O timing é a parte mais louca. Chamath investiu em chips de IA personalizados em 2017, anos antes do ChatGPT tornar o cálculo de inferência uma realidade. Ele esteve no conselho até 2021, e depois se afastou exatamente quando a empresa estava entrando na sua fase de crescimento.
Agora a Nvidia está pagando $20B em dinheiro porque precisa da arquitetura LPU da Groq para inferência em grande escala. Jensen está essencialmente escrevendo um cheque para Chamath por ter sido pioneiro no gargalo da inferência.
Diga o que quiser sobre os SPACs dele. Este aqui compensa muitas das perdas da Clover Health.

Boring_BusinessHá 20 horas
Chamath depois de ganhar $4B com um investimento inicial na Groq (acabou de anunciar a venda de $20B para a NVIDIA)
Um dos melhores resultados de capital de risco de todos os tempos

333
Top
Classificação
Favoritos
