Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: $54K/🎙️ mês https://t.co/fmB6Zf5n9X: $32K/💼 mês https://t.co/hNxFPvj3v1: $31K/🤝 mês https://t.co/SqC3jTyhav: $28K/mês
Todo mundo está entendendo errado.
O tweet mostra chaminés, mas a Intersect Power é uma empresa de energia limpa com 2,2GW de energia solar e 2,4GWh de armazenamento de baterias já operando. O gás natural é reserva para quando o vento e a energia solar não conseguem cobrir os outros 30%.
A verdadeira história é o que o Google realmente está comprando: velocidade.
Os data centers dos EUA consumiram 183 terawatt-horas no ano passado. Esse número dobra até 2030. Todo hyperscaler tem mais demanda do que capacidade. Andy Jassy admitiu isso na teleconferência de resultados da Amazon. A grade não consegue acompanhar.
Então o Google comprou completamente a rede.
O modelo da Intersect coloca a geração de energia diretamente com data centers. Construa a fazenda solar, o conjunto de baterias e o data center no mesmo local. Sem esperar pela interconexão da concessionária. Sem gargalos na transmissão. Sem custos de passagem para os contribuintes que não aderiram ao boom da IA.
Até 2028, a Intersect espera 10,8 gigawatts online ou em desenvolvimento. Isso é mais de 20 vezes a Represa Hoover.
A Amazon está gastando US$ 100 bilhões em infraestrutura de IA este ano. A Microsoft está gastando 80 bilhões de dólares. O Google está gastando 75 bilhões de dólares. São $255 bilhões de três empresas em um ano, e todas estão disputando o mesmo insumo limitado: eletricidade.
O Google acabou de comprar acesso garantido a essa restrição enquanto todo mundo negocia com as concessionárias.
Os 4,75 bilhões de dólares não são a história. Era o que eles não precisavam comprar: tempo.

Pubity25 de dez., 00:43
O Google acabou de gastar 4,75 bilhões de dólares para adquirir uma empresa inteira de energia para alimentar seus data centers de IA.


388
Todo mundo está focado em quem vai lançar a demo humanoide mais chamativa. Jim Fan acabou de te contar a corrida real: quem consegue gerar dados sintéticos suficientes de física para fechar uma lacuna de 100.000 anos.
Esse número não é exagero. Ken Goldberg, de Berkeley, calculou que os dados de texto usados para treinar LLMs levariam 100.000 anos para um ser humano ler. Robôs têm acesso a quase nenhum desses equivalentes para manipulação física. Cada agarrão, cada tropeço, cada transferência de peso precisa ser aprendido do zero ou simulado.
É por isso que o laboratório da Fan lança três versões de modelo em nove meses (N1 em março, N1,5 em junho, N1,6 em dezembro), enquanto a maioria das empresas de robótica ainda está coletando demonstrações do mundo real. A NVIDIA não compete apenas com hardware. Eles estão competindo pela capacidade de gerar dados sintéticos ilimitados de treinamento através do Omniverse.
A pilha GR00T revela a estratégia: GR00T Dreams gera dados de vídeo sintéticos. GR00T-Gen cria ambientes de simulação. GR00T-Mimic gera trajetórias. Cada componente existe para fabricar dados de física que não existem na internet.
A abordagem "Teste de Turing Físico" de Fan é precisa. Vamos construir sistemas que possam raciocinar sobre proteínas e provar teoremas antes de construir sistemas que possam dobrar roupas de forma confiável. A Physical Intelligence demonstrou isso na semana passada quando enfrentou as tarefas do desafio "Olimpíadas de Robôs" de Benjie Holson. A modelo deles conquistou medalhas de ouro em 3 das 5 categorias. Mas perceba o que eles não conseguiram resolver: tarefas que exigem uso de ferramentas com propriedades físicas específicas. A fronteira não é raciocínio. É dinâmica de contato.
OpenAI e Anthropic escalam ao extrair a internet. A IA física não tem internet para extrair. A equipe que vence é quem descobrir como fabricar 100 milhões de horas de experiência em física dentro da simulação e transferi-las para o mundo real.
A NVIDIA, com seu DNA gráfico, infraestrutura de simulação e equipe de 30 pessoas que sistematicamente open-source os modelos de fundação, pode estar melhor posicionada do que qualquer um para fazer exatamente isso.

Jim Fan25 de dez., 01:26
Estou em uma missão singular para resolver o Teste de Turing Físico para robótica. É o próximo, ou talvez O último grande desafio da IA. Superinteligência em sequências de texto ganhará um prêmio Nobel antes de termos a inteligência de chimpanzé em agilidade e destreza. O paradoxo de Moravec é uma maldição a ser quebrada, um muro a ser derrubado. Nada pode interpor entre a humanidade e a produtividade física exponencial neste planeta, e talvez algum dia em planetas além.
Começamos um pequeno laboratório na NVIDIA e crescemos para 30 pessoas muito recentemente. A equipe soca muito acima do seu potencial. Nossa área de pesquisa abrange modelos de fundação, modelos mundiais, raciocínio incorporado, simulação, controle de corpo inteiro e muitos tipos de RL – basicamente toda a pilha do aprendizado robótico.
Este ano, lançamos:
- Modelos fundamentais GR00T VLA (visão-linguagem-ação): N1 open-source em março, N1.5 em junho e N1.6 neste mês;
- GR00T Dreams: modelo de mundo de vídeo para escalar dados sintéticos;
- SONIC: modelo de fundação humanoide de controle de corpo inteiro;
- Pós-treinamento de RL para VLAs e receitas de RL para sim2real.
Isso não teria sido possível sem as inúmeras equipes colaboradoras da NVIDIA, forte apoio da liderança e coautores de laboratórios universitários. Obrigado a todos por acreditarem na missão.
Tópico na galeria de marcos:

172
A Social Capital investiu US$ 10 milhões na rodada inicial da Groq em abril de 2017, quando a empresa valia cerca de US$ 30 milhões após o pagamento. Esse único cheque comprou cerca de 33% da empresa. Depois, eles dobrou a aposta com $52,3 milhões em uma nota conversível de 2018.
Total de implantações: $62,3M.
É aqui que fica interessante. A Groq arrecadou US$ 300 milhões a US$ 1,1 bilhão em 2021, depois US$ 640 milhões a US$ 2,8 bilhões em 2024, e depois US$ 750 milhões a US$ 6,9 bilhões em setembro de 2025. Cada rodada diluía os primeiros investidores. Mas a Social Capital tinha assentos no conselho e provavelmente mantinha alguma proporcional através do conversível.
Matemática conservadora: eles possuem entre 15 e 20% do Groq hoje. Por 20 bilhões, isso dá valor de 3 a 4 bilhões.
62 milhões de dólares dentro. $3-4 bilhões fora. Isso dá um retorno de 50-65 vezes em 8 anos.
Para contextualizar, esse único investimento vale mais do que o tamanho total do fundo da Social Capital em 2015 (US$ 1,1 bilhão). Uma aposta. Oito anos. 50x.
O timing é a parte mais louca. A Chamath investiu em chips de IA personalizados em 2017, anos antes do ChatGPT tornar a computação de inferências uma coisa. Ele permaneceu no conselho até 2021, mas se afastou justamente quando a empresa entrava em sua fase de crescimento.
Agora a Nvidia está pagando US$ 20 bilhões em dinheiro porque precisa da arquitetura LPU da Groq para inferência em larga escala. Jensen está basicamente escrevendo Chamath como um cheque por ter chegado cedo no gargalo de inferência.
Diga o que quiser sobre os SPACs dele. Essa compensa muitas bolsas de saúde do Clover.

Boring_Business20 horas atrás
Chamath após receber 4 bilhões de dólares com um investimento inicial na Groq (acaba de anunciar uma venda de 20 bilhões para a NVIDIA)
Um dos melhores resultados de empreendimento de todos os tempos

321
Melhores
Classificação
Favoritos
