Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: 54.000 $/mes 🎙️ https://t.co/fmB6Zf5n9X: 32.000$/mes 💼 https://t.co/hNxFPvj3v1: 31.000$/mes 🤝 https://t.co/SqC3jTyhav: 28.000$/mes
Todo el mundo se está equivocando.
El tuit muestra chimeneas, pero Intersect Power es una empresa de energía limpia con 2.2GW de energía solar y 2.4GWh de almacenamiento de baterías ya en funcionamiento. El gas natural es un respaldo para cuando el viento y la solar no pueden cubrir el otro 30%.
La verdadera historia es lo que Google está comprando realmente: velocidad.
Los centros de datos de EE. UU. consumieron 183 teravatios-hora el año pasado. Esa cifra se duplica para 2030. Cada hiperescalador tiene más demanda que capacidad. Andy Jassy lo admitió en la llamada de ganancias de Amazon. La red no puede mantenerse al día.
Así que Google compró su camino alrededor de la red por completo.
El modelo de Intersect co-localiza la generación de energía directamente con los centros de datos. Construye la granja solar, el conjunto de baterías y el centro de datos en el mismo sitio. Sin esperar la interconexión de la utilidad. Sin cuellos de botella en la transmisión. Sin pasar costos a los usuarios que no se inscribieron en el auge de la IA.
Para 2028, Intersect espera tener 10.8 gigavatios en línea o en desarrollo. Eso es más de 20 veces la presa Hoover.
Amazon está gastando $100B en infraestructura de IA este año. Microsoft está gastando $80B. Google está gastando $75B. Eso son $255B de tres empresas en un año, y todas están luchando por el mismo insumo limitado: electricidad.
Google acaba de comprar acceso garantizado a esa limitación mientras todos los demás negocian con las utilidades.
Los $4.75B no son la historia. Es lo que no tuvieron que comprar: tiempo.

Pubity25 dic, 00:43
Google acaba de gastar 4.750 millones de dólares para adquirir una empresa energética completa para alimentar sus centros de datos de IA.


378
Todo el mundo está centrado en quién presenta la demostración humanoide más llamativa. Jim Fan acaba de decirte la verdadera carrera: quién puede generar suficientes datos de física sintética para cerrar una brecha de 100,000 años.
Ese número no es una hipérbole. Ken Goldberg en Berkeley calculó que los datos textuales utilizados para entrenar LLMs llevarían 100,000 años a un humano para leer. Los robots tienen acceso a casi ninguno de esos equivalentes para la manipulación física. Cada agarre, cada tropiezo, cada cambio de peso necesita ser aprendido desde cero o simulado.
Por eso el laboratorio de Fan lanza tres versiones de modelo en nueve meses (N1 en marzo, N1.5 en junio, N1.6 en diciembre) mientras que la mayoría de las empresas de robótica aún están recolectando demostraciones del mundo real. NVIDIA no está compitiendo solo en hardware. Están compitiendo en su capacidad para generar datos de entrenamiento sintéticos ilimitados a través de Omniverse.
La pila GR00T revela la estrategia: GR00T Dreams genera datos de video sintético. GR00T-Gen crea entornos de simulación. GR00T-Mimic genera trayectorias. Cada componente existe para fabricar los datos de física que no existen en internet.
El marco del "Test de Turing Físico" de Fan es preciso. Construiremos sistemas que puedan razonar sobre proteínas y probar teoremas antes de construir sistemas que puedan doblar ropa de manera confiable. Physical Intelligence demostró esto la semana pasada cuando abordaron las tareas del desafío "Robot Olympics" de Benjie Holson. Su modelo obtuvo medallas de oro en 3 de 5 categorías. Pero nota lo que no pudieron resolver: tareas que requieren el uso de herramientas con propiedades físicas específicas. La frontera no es el razonamiento. Es la dinámica de contacto.
OpenAI y Anthropic escalan raspando internet. La IA física no tiene internet para raspar. El equipo que gane es quien descubra cómo fabricar 100 millones de horas de experiencia en física dentro de la simulación y transferirla al mundo real.
NVIDIA, con su ADN gráfico, infraestructura de simulación y un equipo de 30 personas sistemáticamente liberando modelos base, podría estar mejor posicionado que nadie para hacer exactamente eso.

Jim Fan25 dic, 01:26
Estoy en una misión singular para resolver la Prueba de Turing Física para la robótica. Es el próximo, o quizás EL último gran desafío de la IA. La superinteligencia en cadenas de texto ganará un premio Nobel antes de que tengamos inteligencia de chimpancé en agilidad y destreza. La paradoja de Moravec es una maldición que debe romperse, un muro que debe derribarse. Nada puede interponerse entre la humanidad y la productividad física exponencial en este planeta, y quizás algún día en planetas más allá.
Iniciamos un pequeño laboratorio en NVIDIA y recientemente crecimos a 30 personas. El equipo rinde mucho más de lo que se espera. Nuestra huella de investigación abarca modelos fundamentales, modelos del mundo, razonamiento incorporado, simulación, control de cuerpo completo y muchas variantes de RL, básicamente toda la pila del aprendizaje robótico.
Este año, lanzamos:
- Modelos fundamentales GR00T VLA (visión-lenguaje-acción): código abierto N1 en marzo, N1.5 en junio y N1.6 este mes;
- GR00T Dreams: modelo del mundo en video para escalar datos sintéticos;
- SONIC: modelo fundamental de control de cuerpo completo humanoide;
- Entrenamiento posterior de RL para VLAs y recetas de RL para sim2real.
Estos no habrían sido posibles sin los numerosos equipos colaboradores en NVIDIA, el fuerte apoyo del liderazgo y los coautores de laboratorios universitarios. Gracias a todos por creer en la misión.
Hilo sobre la galería de hitos:

161
Social Capital invirtió $10M en la ronda de semillas de Groq en abril de 2017, cuando la empresa valía aproximadamente $30M post-money. Ese único cheque compró alrededor del 33% de la empresa. Luego duplicaron su inversión con $52.3M en un pagaré convertible de 2018.
Total desplegado: $62.3M.
Aquí es donde se pone interesante. Groq recaudó $300M a $1.1B en 2021, luego $640M a $2.8B en 2024, y luego $750M a $6.9B en septiembre de 2025. Cada ronda diluyó a los primeros inversores. Pero Social Capital tenía asientos en la junta y probablemente mantuvo algo de pro-rata a través del convertible.
Matemáticas conservadoras: Hoy poseen entre el 15-20% de Groq. A $20B, eso equivale a $3B a $4B en valor.
$62M invertidos. $3-4B de salida. Eso es un retorno de 50-65x en 8 años.
Para ponerlo en contexto, esta única inversión vale más que el tamaño total del fondo de Social Capital en 2015 ($1.1B). Una apuesta. Ocho años. 50x.
El momento es la parte más salvaje. Chamath invirtió en chips de IA personalizados en 2017, años antes de que ChatGPT hiciera que el cómputo de inferencia fuera algo relevante. Estuvo en la junta hasta 2021, luego se retiró justo cuando la empresa estaba entrando en su fase de crecimiento.
Ahora Nvidia está pagando $20B en efectivo porque necesita la arquitectura LPU de Groq para la inferencia a gran escala. Jensen está esencialmente escribiendo un cheque a Chamath por haber sido pionero en el cuello de botella de la inferencia.
Diga lo que quiera sobre sus SPACs. Esta compensa muchas pérdidas de Clover Health.

Boring_BusinessHace 19 horas
Chamath después de ganar $4B de una inversión inicial en Groq (acaba de anunciar una venta de $20B a NVIDIA)
Uno de los mejores resultados de capital de riesgo de todos los tiempos

291
Parte superior
Clasificación
Favoritos
