Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aakash Gupta
✍️ https://t.co/8fvSCtAXgi: 54.000 $/mes 🎙️ https://t.co/fmB6Zf5n9X: 32.000$/mes 💼 https://t.co/hNxFPvj3v1: 31.000$/mes 🤝 https://t.co/SqC3jTyhav: 28.000$/mes
Todo el mundo se está equivocando.
El tuit muestra chimeneas, pero Intersect Power es una empresa de energía limpia con 2,2 GW de energía solar y 2,4 GWh de almacenamiento en baterías ya en funcionamiento. El gas natural es de respaldo para cuando el viento y la solar no pueden cubrir el otro 30%.
La verdadera historia es lo que Google realmente está comprando: velocidad.
Los centros de datos estadounidenses consumieron 183 teravatio-hora el año pasado. Esa cifra se duplica para 2030. Cada hiperescalador tiene más demanda que capacidad. Andy Jassy lo admitió en la llamada de resultados de Amazon. La red no puede seguir el ritmo.
Así que Google compró su camino alrededor de la red por completo.
El modelo de Intersect co-ubica la generación de energía directamente con los centros de datos. Construye la planta solar, la matriz de baterías y el centro de datos en el mismo lugar. No hay esperar la interconexión de la compañía eléctrica. Sin cuellos de botella en la transmisión. Sin costes de traslado para los contribuyentes que no se suscribieron al auge de la IA.
Para 2028, Intersect espera 10,8 gigavatios en línea o en desarrollo. Eso es más de 20 veces la presa Hoover.
Amazon está gastando 100.000 millones de dólares en infraestructura de IA este año. Microsoft está gastando 80.000 millones de dólares. Google está gastando 75.000 millones de dólares. Eso son 255.000 millones de dólares de tres empresas en un año, y todas están luchando por la misma entrada limitada: la electricidad.
Google acaba de comprar acceso garantizado a esa restricción mientras los demás negocian con las compañías eléctricas.
Los 4.7500 millones de dólares no son la historia. Es lo que no tenían que comprar: tiempo.

Pubity25 dic, 00:43
Google acaba de gastar 4.750 millones de dólares para adquirir una empresa energética entera que alimente sus centros de datos de IA.


387
Todos están centrados en quién lanza la demo humanoide más llamativa. Jim Fan acaba de contarte la verdadera carrera: ¿quién puede generar suficientes datos de física sintética para cerrar una brecha de 100.000 años?
Ese número no es una exageración. Ken Goldberg, en Berkeley, calculó que los datos de texto usados para entrenar LLMs tardarían 100.000 años en leerlos a un humano. Los robots tienen acceso a casi nada de ese equivalente para manipulación física. Cada agarre, cada tropiezo, cada cambio de peso debe aprenderse desde cero o simularse.
Por eso Fan's lab lanza tres versiones de modelo en nueve meses (N1 en marzo, N1,5 en junio y N1,6 en diciembre), mientras que la mayoría de las empresas de robótica siguen recopilando demostraciones reales. NVIDIA no compite solo por hardware. Compiten por su capacidad de generar datos sintéticos ilimitados de entrenamiento a través de Omniverse.
La pila GR00T revela la estrategia: GR00T Dreams genera datos de vídeo sintéticos. GR00T-Gen crea entornos de simulación. GR00T-Mimic genera trayectorias. Cada componente existe para fabricar datos de física que no existen en internet.
El encuadre de Fan con el "Test de Turing Físico" es preciso. Construiremos sistemas que puedan razonar sobre proteínas y demostrar teoremas antes de construir sistemas que puedan doblar la ropa de forma fiable. Physical Intelligence lo demostró la semana pasada cuando abordaron las tareas del desafío "Olimpiadas de Robots" de Benjie Holson. Su modelo ganó medallas de oro en 3 de 5 categorías. Pero fíjate en lo que no pudieron resolver: tareas que requieren el uso de herramientas con propiedades físicas específicas. La frontera no es razonamiento. Es dinámica de contacto.
OpenAI y Anthropic escalan raspando internet. La IA física no tiene internet para extraer. El equipo que gana es quien descubra cómo fabricar 100 millones de horas de experiencia física dentro de la simulación y transferirlas al mundo real.
NVIDIA, con su ADN gráfico, infraestructura de simulación y un equipo de 30 personas que abre sistemáticamente modelos de fundamentos, podría estar mejor posicionada que nadie para hacer exactamente eso.

Jim Fan25 dic, 01:26
Estoy en una misión única para resolver la prueba de Turing física para robótica. Es el siguiente, o quizás EL último gran desafío de la IA. La superinteligencia en cadenas de texto ganará un premio Nobel antes de que tengamos la inteligencia chimpancé en agilidad y destreza. La paradoja de Moravec es una maldición que hay que romper, un muro que hay que derribar. Nada puede interponerse entre la humanidad y la productividad física exponencial en este planeta, y quizás algún día en planetas más allá.
Empezamos un pequeño laboratorio en NVIDIA y crecimos hasta 30 muy recientemente. El equipo pega muy por encima de lo que puede. Nuestra huella de investigación abarca modelos fundamentales, modelos mundiales, razonamiento encarnado, simulación, control de cuerpo completo y muchas variantes de la vida real, básicamente todo el conjunto del aprendizaje robótico.
Este año, lanzamos:
- Modelos fundacionales GR00T VLA (visión-lenguaje-acción): N1 de código abierto en marzo, N1.5 en junio y N1.6 este mes;
- GR00T Dreams: modelo de mundo de vídeo para escalar datos sintéticos;
- SONIC: modelo de base de control humanoide de cuerpo completo;
- Post-entrenamiento RL para VLAs y recetas RL para sim2real.
Esto no habría sido posible sin los numerosos equipos colaboradores de NVIDIA, el fuerte apoyo de la dirección y los coautores de laboratorios universitarios. Gracias a todos por creer en la misión.
Hilo en la galería de hitos:

171
Social Capital invirtió 10 millones de dólares en la ronda semilla de Groq en abril de 2017, cuando la empresa tenía un valor de aproximadamente 30 millones después de la financiación. Ese único cheque compró alrededor del 33% de la empresa. Luego redoblaron la apuesta con 52,3 millones de dólares en un billete convertible de 2018.
Total desplegado: 62,3 millones de dólares.
Aquí es donde se pone interesante. Groq recaudó 300 millones de dólares con 1.100 millones en 2021, luego 640 millones con 2.800 millones en 2024, y después 750 millones con 6.900 millones en septiembre de 2025. Cada ronda diluía a los primeros inversores. Pero Social Capital tenía asientos en la junta directiva y probablemente mantenía cierta prorrata a través del descapotable.
Matemáticas conservadoras: hoy poseen entre el 15 y el 20% de Groq. A 20.000 millones, eso es entre 3.000 y 4.000 millones de valor.
62 millones de dólares. 3-4.000 millones de dólares fuera. Eso es un retorno de 50-65 veces en 8 años.
Para contextualizar, esta única inversión vale más que el tamaño total del fondo de Social Capital en 2015 (1.100 millones de dólares). Una apuesta. Ocho años. 50 veces.
El momento es lo más salvaje. Chamath invirtió en chips de IA personalizados en 2017, años antes de que ChatGPT hiciera posible el cálculo de inferencia. Formó parte del consejo hasta 2021, y luego se retiró justo cuando la empresa entraba en su fase de crecimiento.
Ahora Nvidia paga 20.000 millones de dólares en efectivo porque necesitan la arquitectura LPU de Groq para inferencia a gran escala. Jensen está básicamente escribiendo un cheque a Chamath por haber llegado pronto al cuello de botella de la inferencia.
Di lo que quieras sobre sus SPACs. Esta es la que se compensa muchas bolsas de salud de Trébol.

Boring_Businesshace 20 horas
Chamath tras ganar 4.000 millones de dólares con una inversión inicial en Groq (acaba de anunciar una venta de 20.000 millones a NVIDIA)
Uno de los mejores resultados de inversión de todos los tiempos

320
Populares
Ranking
Favoritas
